ES2347385T3 - Aparato de generacion de flujo de imagenes en movimiento, aparato de codificacion de imagenes en movimiento, aparato de multiplexado de imagenes en movimiento y aparato de descodificacion de imagenes en movimiento. - Google Patents

Aparato de generacion de flujo de imagenes en movimiento, aparato de codificacion de imagenes en movimiento, aparato de multiplexado de imagenes en movimiento y aparato de descodificacion de imagenes en movimiento. Download PDF

Info

Publication number
ES2347385T3
ES2347385T3 ES08158372T ES08158372T ES2347385T3 ES 2347385 T3 ES2347385 T3 ES 2347385T3 ES 08158372 T ES08158372 T ES 08158372T ES 08158372 T ES08158372 T ES 08158372T ES 2347385 T3 ES2347385 T3 ES 2347385T3
Authority
ES
Spain
Prior art keywords
image
information
images
unit
random access
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES08158372T
Other languages
English (en)
Inventor
Tadamasa Matsushita Electric Industrial Co. Ltd Toma
Shinya Matsushita Electric Industrial Co. Ltd Kadono
Tomoyuki Matsushita Electric Industrial Co. Ltd Okada
Hiroshi Matsushita Electric Industrial Co. Ltd Yahata
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Application granted granted Critical
Publication of ES2347385T3 publication Critical patent/ES2347385T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/005Reproducing at a different information rate from the information rate of recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/426Internal components of the client ; Characteristics thereof
    • H04N21/42646Internal components of the client ; Characteristics thereof for reading from or writing on a non-volatile solid state storage medium, e.g. DVD, CD-ROM
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • H04N21/4325Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4332Content storage operation, e.g. storage operation in response to a pause request, caching operations by placing content in organized collections, e.g. local EPG data repository
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/433Content storage operation, e.g. storage operation in response to a pause request, caching operations
    • H04N21/4334Recording operations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8451Structuring of content, e.g. decomposing content into time segments using Advanced Video Coding [AVC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/85406Content authoring involving a specific file format, e.g. MP4 format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/782Television signal recording using magnetic recording on tape
    • H04N5/783Adaptations for reproducing at a rate different from the recording rate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/806Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal
    • H04N9/8063Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components with processing of the sound signal using time division multiplex of the PCM audio and PCM video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

Un aparato de generación de flujo de imágenes en movimiento que genera un flujo que incluye imágenes que constituyen una imagen en movimiento, comprendiendo dicho aparato de generación de flujo de imágenes en movimiento: una primera unidad de codificación utilizable para codificar una primera información suplementaria incluida en una unidad de acceso aleatorio, incluyendo la unidad de acceso aleatorio un grupo de imágenes cuya primera imagen es una imagen I, (i) incluyendo la primera información suplementaria fragmentos plurales de información de tipos de imagen, que indica tipos de las imágenes incluidas en el grupo, y (ii) utilizándose cuando las imágenes incluidas en la unidad de acceso aleatorio se reproducen en reproducción trucada, y estando los fragmentos plurales de información de tipos de imagen colocados en un orden que corresponde a un orden de descodificación del grupo de imágenes; una segunda unidad de codificación utilizable para codificar una segunda información suplementaria incluida en la unidad de acceso aleatorio, (i) incluyendo la segunda información suplementaria fragmentos plurales de información de estructuras de imagen, que indica estructuras de campos o tramas de las imágenes incluidas en el grupo, y (ii) utilizándose cuando las imágenes incluidas en la unidad de acceso aleatorio se reproducen en reproducción trucada, y estando los fragmentos plurales de información de estructuras de imagen colocados en el orden que corresponde al orden de descodificación del grupo de imágenes; y una unidad de generación utilizable para generar un flujo de imágenes en movimiento, añadiendo la información suplementaria codificada primera y segunda a una imagen codificada correspondiente a la primera imagen I que es una imagen inicial de la unidad de acceso aleatorio.

Description

Aparato de generación de flujo de imágenes en movimiento, aparato de codificación de imágenes en movimiento, aparato de multiplexado de imágenes en movimiento y aparato de descodificación de imágenes en movimiento.
Campo técnico
La presente invención se refiere a un aparato, y similares, que genera un flujo de imágenes en movimiento codificadas, especialmente a un aparato, y similares, que genera un flujo sobre el cual se puede llevar a cabo una reproducción trucada tal como reproducción a saltos, reproducción a velocidad variable, reproducción inversa y similares.
Técnica anterior
Recientemente, ha llegado la era de los multimedios en la cual el sonido, las imágenes y otros valores de píxeles se integran en un medio, y los medios de información convencional, como las herramientas de comunicación tales como periódicos, revistas, televisión, radio y teléfono se consideran como objetos multimedios. Generalmente, los multimedios son una forma de representación simultánea no solamente de caracteres sino también de gráficos, sonido y especialmente imágenes. Con el fin de gestionar los medios de información convencionales anteriormente descritos como multimedios, es un requisito representar la información digitalmente.
Sin embargo, no es realista procesar directamente una gran cantidad de información de manera digital usando los medios de información convencionales anteriormente descritos porque, cuando se calcula la cantidad de datos de cada medio de información descrito anteriormente como cantidad de datos digitales, la cantidad de datos por carácter es de 1 a 2 octetos, mientras que la del sonido por segundo no es inferior a 65 kbits (calidad vocal telefónica) y la de las imágenes en movimiento por segundo no es inferior a 100 Mbits (actual calidad de recepción de televisión). Por ejemplo, ya está comercialmente disponible un teléfono con televisión, gracias a la Red Digital de Servicios Integrados (ISDN) con una velocidad de transmisión de 64 kbps a 1,5 Mbps, pero es imposible transmitir imágenes móviles de cámara de televisión cuando se usa ISDN.
Por este motivo es necesaria la técnica de compresión de la información. Por ejemplo, una norma de técnica de compresión de imágenes en movimiento de H. 261 o H. 263, recomendada por la Unión Internacional de las Telecomunicaciones-Sector de Normalización de las Telecomunicaciones (ITU-T) se usa para los teléfonos con televisión. Igualmente, con la técnica de compresión de la información de la norma MPEG-1, es posible almacenar información de imágenes, junto con información de sonido, en un CD (disco compacto) normal para música.
Aquí, el Grupo de Expertos en Imágenes en Movimiento (MPEG) es una norma internacional para comprimir digitalmente señales de imágenes en movimiento, y ha sido normalizada por la ISO/IEC (la Organización Internacional de Estandarización/Consorcio Internacional de Ingeniería). MPEG-1 es la norma para comprimir señales de imágenes en movimiento a 1,5 Mbps, es decir, para comprimir información de señal de televisión en aproximadamente una centésima. Igualmente, la calidad que satisface la norma MPEG-1 es el nivel medio que se puede realizar a una velocidad de transmisión de aproximadamente 1,5 Mbps. De este modo MPEG-2 se normaliza para satisfacer la necesidad de una mayor calidad de imagen, y comprime las señales de imágenes en movimiento de 2 a 15 Mbps. Actualmente, el grupo de trabajo (ISO/IEC JTC1/SC29/WG11), que normalizó MPEG-1 y MPEG-2, ha normalizado MPEG-4 con una mayor velocidad de compresión. La norma MPEG-4 (i) consigue una velocidad de compresión superior a la norma MPEG-1 y la norma MPEG-2, (ii) permite codificar, descodificar y realizar operaciones objeto por objeto, y (iii) realiza nuevas funciones necesarias en esta era de multimedios. El objeto inicial de la norma MPEG-4 es normalizar un procedimiento de codificación de imágenes con bajas velocidades de bits, pero el objeto se extiende a un procedimiento de codificación de propósito general de imágenes entrelazadas con velocidades de bits elevadas. Después de esto, ISO/IEC y ITU/T, en combinación, han normalizado la AVC (codificación de vídeo avanzada) de MPEG-4 como un procedimiento de codificación de imágenes de la próxima generación, de imágenes con una velocidad de compresión elevada. Se espera que se use para los aparatos relacionados con los discos ópticos de la próxima generación, o en la difusión para terminales móviles.
Generalmente, en la codificación de las imágenes móviles, la cantidad de información se comprime reduciendo las redundancias temporales y espaciales. En la codificación de predicción interimágenes, dirigida a reducir las redundancias temporales, la generación de imágenes de estimación y predicción de movimiento se lleva a cabo bloque por bloque con referencia a una imagen anterior o una imagen posterior, y la codificación se lleva a cabo sobre el valor diferencial entre la imagen de predicción obtenida y la imagen a codificar. En esta memoria, el término "Imagen" usado es un término que representa una imagen. En una imagen progresiva, una imagen significa una trama, pero en una imagen entrelazada, significa una trama o un campo. El término "imagen entrelazada" descrito aquí significa una trama compuesta por dos campos con un ligero retardo temporal. En los procedimientos de codificación y descodificación de imágenes entrelazadas, es posible procesar una trama como es, como dos campos, o trama por trama o campo por campo de cada bloque en una trama.
La imagen para llevar a cabo la codificación intra-predicción sin hacer referencia a ninguna imagen de referencia se denomina Imagen Intra-codificada (imagen I). Igualmente, la imagen para llevar a cabo la codificación inter-predicción que se refiere a solamente una imagen se denomina Imagen predictiva codificada (imagen P). Igualmente, la imagen para llevar a cabo la codificación inter-predicción que se refiere a dos imágenes de referencia simultáneamente se denomina Imagen codificada Bipredictiva (imagen B). Una imagen B se puede referir a dos imágenes seleccionadas como una combinación arbitraria de una imagen anterior y una imagen posterior en tiempo de visualización. Tales dos imágenes de referencia se pueden especificar sobre bloque por bloque, siendo el bloque una unidad básica de codificación y descodificación. Estas imágenes de referencia se distinguen las unas de las otras de la siguiente manera: la imagen de referencia descrita anteriormente en el flujo codificado de bits se denomina primera imagen de referencia, y la otra imagen de referencia, descrita más tarde, se llama segunda imagen de referencia. Obsérvese que tales imágenes de referencia deben haberse codificado o descodificado anteriormente para codificar o descodificar imágenes P e imágenes B.
La codificación inter-predicción de compensación de movimiento se usa para codificar imágenes P e imágenes B. La codificación intra-predicción de compensación de movimiento es un procedimiento de codificación intra-predicción en el cual se aplica la compensación de movimiento. La compensación de movimiento es un procedimiento para mejorar una precisión de predicción y reducir la cantidad de datos evaluando la cantidad de movimiento (en lo sucesivo denominada vector de movimiento) de cada bloque de una imagen y llevando a cabo la codificación de predicción que considera el vector de movimiento. Por ejemplo, la cantidad de datos se reduce evaluando los vectores de movimiento de las imágenes a codificar y codificando cada residuo de predicción entre cada valor de predicción que está desplazado en la cantidad de cada vector de movimiento y cada imagen actual a codificar. En el caso de este procedimiento, puesto que la información del vector de movimiento es necesaria en la descodificación, los vectores de movimiento también se codifican, y se graban o se transmiten.
Los vectores de movimiento se evalúan macrobloque por macrobloque. Más específicamente, se evalúan los vectores de movimiento fijando el macrobloque de una imagen a codificar, moviendo el macrobloque de una imagen de referencia dentro del intervalo de búsqueda, y encontrando la ubicación del bloque de referencia que es más cercano al bloque estándar.
Las Fig. 1A y 1B son, respectivamente, diagramas estructurales de flujos MPEG-2 convencionales. Como se muestra en la Fig. 1B, un flujo MPEG-2 tiene una estructura jerárquica como la que se describirá en lo sucesivo. Un flujo se compone de un Grupo de Imágenes (denominado GOP en lo sucesivo). El uso de un GOP como unidad básica en el procesamiento de codificación permite editar una imagen en movimiento o llevar a cabo un acceso aleatorio. Un GOP se compone de imágenes I, imágenes P e imágenes B. Un flujo, un GOP y una imagen incluyen además, una señal síncrona (sinc) que indica una frontera de unidades y un encabezamiento que indica los datos comunes en las unidades, siendo las unidades aquí un flujo, un GOP y una imagen, respectivamente.
Las Fig. 2A y 2B muestran respectivamente ejemplos que indican la manera de llevar a cabo la codificación de predicción inter-imagen que se usa en MPEG-2. Las imágenes diagonalmente sombreadas en la figura son las imágenes a las que han de referirse otras imágenes. Como se muestra en la Fig. 2A, en la codificación de predicción en MPEG-2, las imágenes P (P0, P6, P9, P12 y P15) se pueden referir solamente a una única imagen seleccionada como una imagen I o una imagen P inmediatamente posterior en el tiempo de visualización. Igualmente, las imágenes B (B1, B2, B4, B5, B7, B8, B10, B11, B13, B14, B16, B17, B19 y B20) se pueden referir a dos imágenes seleccionadas como una combinación de una imagen I o imagen P inmediatamente anterior y una imagen I o imagen P inmediatamente anterior. Además, el orden de las imágenes a colocar en un flujo está determinado. Las imágenes I y una imagen P se colocan en el orden del tiempo de visualización, y cada imagen B se coloca inmediatamente después de una imagen I a visualizar inmediatamente después de la imagen B o inmediatamente después de una imagen P. Como ejemplo estructural de un GOP, como se muestra en la Fig. 2B, las imágenes de 13 a B14 se agrupan en un solo
GOP.
La Fig. 3A es un diagrama estructural de un flujo AVC de MPEG-4. No hay ningún concepto equivalente a un GOP en la AVC de MPEG-4. Sin embargo, ya que es posible construir una unidad accesible aleatoriamente equivalente a un GOP, segmentando los datos sobre la base de una imagen especial que se puede descodificar sin depender de otras imágenes, la unidad se denominará en lo sucesivo RAU (Unidad de Acceso Aleatorio). Dicho de otro modo, una unidad de acceso aleatorio RAU es un grupo de imágenes codificadas que empieza con una imagen intracodificada que se puede descodificar sin depender de ninguna imagen.
A continuación, se describirá más adelante la unidad de acceso que es una unidad básica en la gestión de un flujo (denominada simplemente AU en lo sucesivo). Una AU es la unidad para almacenar datos codificados equivalentes a una imagen, e incluye un conjunto PS de parámetros, datos de segmentos y similares. Hay dos tipos de conjuntos PS de parámetros. Uno de ellos es un conjunto PPS de parámetros de imágenes (denominados en lo sucesivo simplemente PPS) que son datos equivalentes al encabezamiento de cada imagen. El otro es un conjunto SPS de parámetros de secuencias (denominado en lo sucesivo simplemente SPS) que es equivalente al encabezamiento incluido en una unidad de un GOP o más en el MPEG-2. Un SPS incluye el número máximo de imágenes de referencia, un tamaño de imagen y similares. Por otra parte, un PPS incluye un tipo de codificación de longitud variable, un valor inicial de la etapa de cuantización, el número de imágenes de referencia y similares. A cada imagen se le asigna un identificador que indica a cuál de los PPS y SPS anteriormente descritos se hace referencia. Igualmente, un número FN de trama, que es el número de identificación para identificar una imagen incluida en datos de segmentos. Obsérvese que una secuencia empieza con una imagen especial en la cual todos los estados necesarios para descodificar se reinician como se describirá más adelante, y que se compone de un grupo de imágenes que empieza con una imagen especial y termina con una imagen que se coloca inmediatamente antes de la siguiente imagen especial.
Hay dos tipos de imágenes I en la AVC de MPEG-4. Hay un Refresco de Descodificador Instantáneo (IDR) y el resto. Una imagen de IDR es la imagen I que puede descodificar todas las imágenes colocadas después de la imagen IDR en un orden de descodificación, sin referirse a las imágenes colocadas antes de la imagen IDR en el orden de descodificación; dicho de otro modo, es la imagen I en la cual se reinician los estados necesarios para la descodificación. Una imagen IDR corresponde a la imagen I superior de un GOP cerrado de MPEG-2 Una secuencia en la AVC de MPEG-4 empieza con una imagen IDR. En el caso de una imagen I que no es una imagen IDR, una imagen colocada después de la imagen I en el orden de descodificación se puede referir a una imagen colocada antes de la imagen I en el orden de descodificación. Los tipos de imágenes respectivos se definirán en lo sucesivo. Una imagen IDR y una imagen I son las imágenes que se componen solamente de segmentos I. Una imagen P es la imagen que puede estar compuesta por segmentos P y segmentos I. Una imagen B es la imagen que se puede componer de segmentos B, segmentos P y segmentos I. Obsérvese que los segmentos de una imagen IDR se almacenan en una unidad NAL cuyo tipo es diferente del de la unidad NAL donde se almacenan los segmentos de una imagen no-IDR. Aquí, una unidad NAL es una unidad de subimagen.
En una AU en la AVC de MPEG-4, no solamente pueden incluirse los datos necesarios para descodificar, sino también la información suplementaria y la información de frontera. Tal información suplementaria se denomina Información Potenciadora Suplementaria (SEI) y es innecesaria para descodificar datos de segmentos. Todos los datos tales como un conjunto PS de parámetros, datos de segmentos y una SEI, se almacenan en una unidad Capa de Abstracción de Red (NAL), es decir, la NALU. Una unidad NAL se compone de un encabezamiento y una carga útil. Un encabezamiento incluye un campo que indica el tipo de datos a almacenar (en lo sucesivo denominado tipo de unidad NAL). Los valores de los tipos de unidad NAL se definen respectivamente para los tipos de datos tales como un segmento o una SEI. La referencia a tal valor de un tipo de unidad NAL permite identificar el tipo de datos a almacenar en la unidad NAL. El encabezamiento de una unidad NAL incluye un campo denominado nal_ref_idc. Se define que un campo nal_ref_idc es un campo de 2 bits y adopta un valor de 0, 1 ó más, según los tipos de unidades NAL. Por ejemplo, la unidad NAL de un SPS o un PPS adopta el valor 1 o más. En el caso de la unidad NAL de un segmento, un segmento al que se refieren los otros segmentos adopta el valor 1 o más, mientras que el segmento al que no se hace referencia adopta el valor 0. Igualmente, la unidad NAL de una SEI siempre toma el valor 0.
Uno o más mensajes de SEI se pueden almacenar en la unidad NAL de una SEI. Un mensaje SEI se compone de un encabezamiento y una carga útil, y el tipo de información a almacenar en la carga útil se identifica mediante el tipo de un mensaje SEI indicado en el encabezamiento. La descodificación de una AU significa descodificar los datos de segmentos en una AU, y visualizar una AU significa visualizar el resultado de descodificación de los datos de segmentos en la AU en lo que sigue.
Aquí, puesto que una unidad NAL no incluye información para identificar una frontera de unidad NAL, es posible añadir información de frontera a la parte superior de cada unidad NAL en el momento de almacenar una unidad NAL como una AU. En la gestión de un flujo de AVC de MPEG-4 en un Flujo de Transporte (TS) de MPEG-2 o un Flujo de Programa (PS) de MPEG-2, un prefijo de código de inicio, mostrado como 3 octetos de 0x000001, se añade a la parte superior de una unidad NAL. Igualmente se define que una unidad NAL que indica una frontera de AU se debe insertar en la parte superior de una AU en un TS o PS de MPEG-2, tal como una AU denominada Delimitador de Unidad de Acceso.
Convencionalmente, se han propuesto diversos tipos de técnicas relacionados, como este, con la codificación de imágenes en movimiento (Por ejemplo, remítase al Documento de Patente 1).
Documento de Patente 1: Publicación japonesa de Patente Abierta a Inspección Pública Nº 2003-18549.
La Fig. 4 es un diagrama de bloques de un aparato convencional de codificación de imágenes en movimiento.
El aparato 1 de codificación de imágenes en movimiento es un aparato que produce un flujo codificado Str obtenido convirtiendo, a través de la codificación por compresión, una señal EntradaV de vídeo de entrada, a introducir en un flujo de bits de un flujo codificado de longitud variable, o similar. El aparato de codificación de imágenes en movimiento incluye una unidad PTYPE de determinación de estructura de predicción, una unidad ME de estimación de vector de movimiento, una unidad MC de compensación de movimiento, una unidad Restar de resta, una unidad T de transformada ortogonal, una unidad Q de cuantización, una unidad IQ de cuantización inversa, una unidad IT de transformada ortogonal inversa, una unidad Sumar de suma, una memoria de imagen MemImag, un conmutador y una unidad VLC de codificación de longitud variable.
La señal Entrada V de vídeo de entrada se introduce en la unidad de resta Restar y la unidad ME de estimación de vector de movimiento. La unidad Restar de resta calcula el valor diferencial entre la señal EntradaV de vídeo de entrada introducida y la imagen de predicción, y la envía a la unidad de transformada ortogonal. La unidad T de transformada ortogonal convierte el valor diferencial en un coeficiente de frecuencias, y lo envía a la unidad Q de cuantización. La unidad Q de cuantización lleva a cabo la cuantización sobre el coeficiente de frecuencia introducido, y envía un valor Qcoef de cuantización a la unidad de codificación de longitud variable.
La unidad IQ de cuantización inversa realiza la cuantización inversa sobre el valor Qcoef de cuantización para reconstruir el coeficiente de frecuencia, y lo envía a la unidad IT de transformada ortogonal inversa. La unidad IT de transformada ortogonal inversa lleva a cabo la transformada de frecuencia inversa para transformar el coeficiente de frecuencia en un valor diferencial de píxeles, y lo envía a la unidad Sumar de suma. La unidad Sumar de suma añade el valor diferencial de píxeles a la imagen de predicción, a enviar desde la unidad MC de compensación de movimiento, para realizar una imagen descodificada. El conmutador SW se enciende cuando se instruye el almacenamiento de la imagen descodificada, y la imagen descodificada se almacena en la memoria de imagen MemImag.
Por otra parte, la unidad ME de estimación de vector de movimiento, en la cual se introduce una señal Entrada V de vídeo de entrada macrobloque por macrobloque, busca la imagen descodificada almacenada en la memoria de imagen MemImag, y estima el área de imagen que es más cercana a la señal de imagen de entrada, y en consecuencia determina el vector MV de movimiento que indica la posición. La estimación del vector de movimiento se lleva a cabo bloque por bloque, siendo el bloque una parte segmentada de un macrobloque. Puesto que se pueden usar diversas imágenes como imágenes de referencia en este momento, los números de identificación para especificar imágenes a las cuales referirse (índices relativos) son necesarios bloque por bloque. Es posible especificar imágenes de referencia calculando los números de imagen indicados por los índices relativos, siendo tales números de imagen asignados a las imágenes respectivas en una memoria de imagen MemImag.
La unidad MC de compensación de movimiento selecciona el área de imagen que es óptima como imagen de predicción a partir de las imágenes descodificadas almacenadas en la memoria de imagen MemImag.
La unidad PTYPE de determinación de estructura de predicción instruye a la unidad ME de estimación de vector de movimiento y a la unidad MC de compensación de movimiento para llevar a cabo la codificación intra-imagen sobre la imagen objetivo, como imagen especial accesible aleatoriamente usando su tipo TipoI de imagen, en el caso en que una imagen de inicio de unidad de acceso aleatorio, EntradaRAU, indica que la unidad RAU de acceso aleatorio empieza con la imagen actual, e instruye a la unidad VLC de codificación de longitud variable para codificar el tipo TipoI de imagen.
La unidad VLC de codificación de longitud variable lleva a cabo la codificación de longitud variable sobre el valor Qcoef de cuantización, el índice relativo Índice, el tipo TipoI de imagen y el vector MV de movimiento para formar un flujo codificado Flujo.
La Fig. 5 es un diagrama en bloques de un aparato 2 convencional de descodificación de imágenes en movimiento. Este aparato 2 de descodificación de imágenes en movimiento incluye una unidad VLC de descodificación de longitud variable, una memoria MemImag de imagen, una unidad MC de compensación de movimiento, una unidad Sumar de suma, una unidad IT de transformada ortogonal inversa y una unidad IQ de cuantización inversa. Obsérvese que, en la figura, a estas unidades de procesamiento que realizan las mismas operaciones que las unidades de procesamiento en un aparato convencional de codificación de imágenes en movimiento, según se muestra en el diagrama en bloques de la Fig. 4, se les asignan los mismos números de referencia, y se omitirán las descripciones acerca de las mismas.
La unidad VLD de descodificación de longitud variable descodifica un flujo codificado Flujo, y envía el valor Qcoef de cuantización, el índice relativo Índice, el tipo TipoI de imagen y el vector MV de movimiento. El valor Qcoef de cuantización, el índice relativo Índice y el vector MV de movimiento se introducen en la memoria MemImag de imagen, la unidad MC de compensación de movimiento y la unidad IQ de cuantización inversa, respectivamente, y a continuación se lleva a cabo el procesamiento de descodificación sobre los mismos. Tales operaciones de un aparato convencional de codificación de imágenes en movimiento ya se han descrito usando el diagrama en bloques de la Fig. 4.
Una unidad RAU de acceso aleatorio muestra que la descodificación se puede llevar a cabo empezando con la AU superior en la unidad de acceso aleatorio. Sin embargo, puesto que un flujo convencional de AVC de MPEG-4 permite estructuras de predicción muy flexibles, un aparato de almacenamiento con un disco óptico o un disco rígido no puede obtener información para determinar las AU a descodificar o visualizar en el momento de la reproducción a velocidad variable o reproducción inversa.
Las Fig. 6A y 6B son ejemplos de las estructuras de predicción de las AU. Aquí, se almacena una imagen en cada AU. La Fig. 6A es la estructura de predicción de las AU usada en un flujo MPEG-2. Las figuras sombreadas diagonalmente en la figura son imágenes de referencia para otras AU. En el MPEG-2 las AU de las imágenes P (P4 y P7) pueden llevar a cabo la codificación de predicción refiriéndose solamente a una única AU seleccionada como la AU de una imagen I o imagen P inmediatamente posterior en el tiempo de visualización. Igualmente, las AU de las imágenes B (B1, B2, B3, B5 y B6) pueden llevar a cabo la codificación de predicción refiriéndose a dos AU seleccionadas como una combinación de las AU de una imagen I o imagen P inmediatamente posterior y una imagen I o imagen P inmediatamente anterior en el tiempo de visualización. Además, el orden de las imágenes a colocar en un flujo se predetermina de la siguiente manera: las AU de una imagen I y las imágenes P se colocan en el orden del tiempo de visualización; y cada una de las AU de imágenes B se coloca inmediatamente después de las AU de la imagen I o una de las imágenes P que se coloca inmediatamente después de la AU de cada imagen B. En consecuencia, la descodificación se puede llevar a cabo de las tres siguientes maneras: (1) todas las imágenes se descodifican; (2) solamente las AU de una imagen I e imágenes P se descodifican y visualizan; y (3) solamente la AU de una imagen I se descodifica y visualiza. Por lo tanto, los tres siguientes tipos de reproducción se pueden llevar a cabo fácilmente usando: (1) reproducción normal, (2) reproducción de velocidad media, y (3) reproducción a alta velocidad.
En la AVC de MPEG-4, se puede llevar a cabo la predicción donde la AU de una imagen B se refiere a la AU de una imagen B. La Fig. 6B es un ejemplo de estructura de predicción en un flujo de AVC de MPEG-4, y las AU de imágenes B (B1 y B3) se refieren a la AU (B2) de la imagen B. En este ejemplo, se pueden llevar a cabo los cuatro siguientes tipos de descodificación o visualización: (1) todas las imágenes se descodifican; (2) solamente las AU, de una imagen I, imágenes P e imágenes B, a las que se hace referencia, se descodifican y visualizan; (3) solamente las AU de una imagen I, y las imágenes P son descodificadas y visualizadas; (4) solamente la AU de una imagen I se descodifica y visualiza.
Además, en la AVC de MPEG-4, la AU de una imagen P se puede referir a la AU de una imagen B. Como se muestra en la Fig. 7, la AU de una imagen P (P7) se puede referir a la AU de una imagen B (B2). En este caso, la AU de una imagen P (P7) se puede descodificar solamente después de que se haya descodificado la AU de una imagen B (B2). Por lo tanto, los tres siguientes tipos de descodificación o visualización se pueden llevar a cabo: (1) todas las imágenes se descodifican; (2) solamente las AU, de una imagen I, imágenes P e imágenes B, a las que se hace referencia, se descodifican y visualizan; (3) solamente la AU de una imagen I se descodifica y visualiza.
De esta manera, puesto que se permiten diversas estructuras de predicción en la AVC de MPEG-4, se debe realizar el análisis de los datos de segmentos y la evaluación de la estructura de la predicción para conocer la relación de referencia entre la AU. Esto conlleva un problema: las AU a descodificar o visualizar no se pueden determinar basándose en una regla que se predetermina según una velocidad de reproducción en el momento de llevar a cabo la reproducción a saltos, la reproducción a velocidad variable y la reproducción inversa, a diferencia del caso del MPEG-2.
El documento EP0756281 revela un aparato de generación de flujo de imágenes en movimiento en el cual la información sectorial de tramas I y P, requeridas para modalidades de reproducción trucada, se graba en un sector de entrada formado en la parte superior de cada GOP.
Divulgación de la invención
Un objeto de la presente invención es proporcionar (i) un aparato y un procedimiento de generación de flujo de imágenes en movimiento que generan un flujo de imagen en movimiento que pueden llevar a cabo una reproducción trucada tal como reproducción a saltos, reproducción a velocidad variable y reproducción inversa, incluso en el caso de un procedimiento de codificación como la AVC de MPEG-4, que permite estructuras de predicción flexibles, y (ii) un aparato de descodificación de imágenes en movimiento, y similares, que descodifica tal flujo de imagen en movimiento.
La invención es un aparato de generación de flujo en movimiento según la reivindicación 1, un procedimiento de generación de flujo en movimiento según la reivindicación 2, un aparto de descodificación de imágenes en movimiento según la reivindicación 3, un procedimiento de descodificación de imágenes en movimiento según la reivindicación 4, un soporte de grabación legible por ordenador según la reivindicación 5, un procedimiento de grabación según la reivindicación 6 y un sistema de descodificación de imágenes en movimiento según la reivindicación 7.
Como se ha descrito hasta este punto, con la presente invención, se pueden determinar las AU a descodificar en el tiempo de la reproducción trucada, tal como reproducción a velocidad variable y reproducción inversa, refiriéndose a una unidad específica NAL en la AU superior de una unidad RAU de acceso aleatorio. Por lo tanto, se puede realizar fácilmente un aparato de descodificación de imágenes en movimiento con una función excelente de reproducción trucada, y de este modo la presente invención es sumamente práctica.
Breve descripción de los dibujos
Estos y otros objetos, ventajas y características de la invención devendrán evidentes a partir de la siguiente descripción, considerada conjuntamente con los dibujos anexos, que ilustran una realización específica de la invención. En los dibujos:
Las Fig. 1A y 1B son diagramas que muestran, respectivamente, estructuras de flujo MPEG-2 de una técnica anterior;
Las Fig. 2A y 2B son diagramas que muestran, respectivamente, estructuras de GOP de MPEG-2 de una técnica anterior;
Las Fig. 3A y 3B son diagramas que muestran, respectivamente, estructuras de flujo MPEG-4 de una técnica anterior;
La Fig. 4 es un diagrama en bloques que muestra la estructura de un aparato de codificación convencional;
La Fig. 5 es un diagrama en bloques que muestra la estructura de un aparato de descodificación convencional;
Las Fig. 6A y 6B son diagramas que muestran, respectivamente, ejemplos de la estructura de predicción en un flujo convencional de AVC de MPEG-4;
La Fig. 7 es un diagrama que muestra otro ejemplo de la estructura de predicción en un flujo convencional de AVC de MPEG-4;
Las Fig. 8A y 8B son diagramas que muestran, respectivamente, estructuras de flujos de AVC de MPEG-4 de la presente invención;
Las Fig. 9A a 9D son diagramas de un primer ejemplo que muestra las AU a descodificar en una unidad RAU de acceso aleatorio;
Las Fig. 10A a 10D son diagramas de un segundo ejemplo que muestra las AU a descodificar en una unidad RAU de acceso aleatorio;
Las Fig. 11A a 11C son diagramas de un tercer ejemplo que muestra las AU a descodificar en una unidad RAU de acceso aleatorio;
Las Fig. 12A a 12F son diagramas de un ejemplo que muestra el procedimiento para especificar las AU a descodificar en una unidad RAU de acceso aleatorio;
La Fig. 13A es un diagrama que muestra un ejemplo de sintaxis de una tabla que indica información de reproducción a velocidad variable, y la Fig. 13B es un diagrama que muestra una unidad de almacenamiento de datos;
La Fig. 14 es un diagrama de un ejemplo de extensión de una tabla que indica información de reproducción a velocidad variable;
Las Fig. 15A a 15C son diagramas de un ejemplo que muestra las AU de la imagen I y la imagen P en una unidad RAU de acceso aleatorio en forma de información de reproducción a velocidad variable;
Las Fig. 16A a 16C son diagramas de un ejemplo donde el tiempo de detención en memoria temporal se usa como indicador de prioridades en el momento de la utilización de las prioridades de las AU como información de reproducción a velocidad variable.
Las Fig. 17A y 17B son diagramas que muestran respectivamente ejemplos en los cuales las AU de estructura de trama y las AU de estructura de campo coexisten en las RAU respectivas; la Fig. 17C es un diagrama que muestra el ejemplo de sintaxis del primer mapa (RAU_map1) que muestra la estructura de cada AU en la RAU; la Fig. 17D es un diagrama que muestra el RAU_map1 de la RAU de la Fig. 17B; la Fig. 17E es un diagrama que muestra el RAU_map en cuanto a la unidad RAU de acceso aleatorio de la Fig. 17B; la Fig. 17F es un diagrama que muestra el ejemplo de sintaxis del segundo mapa (RAU_map2) que muestra el tipo de codificación de cada trama o cada imagen de un par de campos;
Las Fig. 18A a 18C son diagramas que muestran otro mapa ejemplar en forma de información de reproducción;
La Fig. 19 es un diagrama del procedimiento para indicar la información de frontera en una unidad RAU de acceso aleatorio;
Las Fig. 20A y 20B son diagramas que muestran ejemplos de estructuras de predicción de imágenes en una unidad RAU de acceso aleatorio;
La Fig. 21 es un diagrama en bloques que muestra la estructura de un aparato de codificación de imágenes en movimiento de la presente invención;
La Fig. 22 es un diagrama de flujo de un procedimiento de codificación de imágenes en movimiento;
La Fig. 23 es un diagrama de bloques que muestra la estructura de un aparato de multiplexado de imágenes en movimiento de la presente invención;
Las Fig. 24A y 24B son diagramas que muestran contenidos ejemplares de la Ayuda de la información de soporte;
La Fig. 25 es un diagrama que muestra un ejemplo de una unidad NAL en la cual la información de reproducción trucada se almacena en la Ayuda de la información de soporte;
La Fig. 26 es un diagrama de flujo que muestra el funcionamiento de un aparato de multiplexado de imágenes en movimiento;
La Fig. 27 es un diagrama en bloques que muestra la estructura de un aparato de descodificación de imágenes en movimiento de la presente invención;
La Fig. 28 es un diagrama de flujo de un procedimiento de descodificación de imágenes convencional;
La Fig. 29 es un diagrama de flujo de determinación de las AU a descodificar en el procedimiento de descodificación de imágenes en movimiento de la presente invención;
La Fig. 30 es un diagrama de flujo que muestra el procesamiento realizado en el caso en el cual las AU a descodificar no coinciden con las AU a visualizar en el procedimiento de descodificación de imágenes en movimiento de la presente invención;
La Fig. 31 es un diagrama que muestra una jerarquía de datos de una unidad HD-DVD;
La Fig. 32 es un diagrama estructural del espacio lógico sobre una unidad HD-DVD;
La Fig. 33 es un diagrama estructural de un archivo de información de un objeto VOB de vídeo;
La Fig. 34 es un diagrama de un mapa temporal;
La Fig. 35 es un diagrama estructural de un fichero de lista de reproducción;
La Fig. 36 es un diagrama estructural de un fichero de programa que corresponde a la lista de reproducción;
La Fig. 37 es un diagrama estructural que muestra un fichero de información de gestión de todo el disco Blue-Ray BD;
La Fig. 38 es un diagrama estructural de un fichero para grabar un gestor global de sucesos;
La Fig. 39 es un diagrama en bloques que muestra el contorno de un reproductor de HD-DVD; y
Las Fig. 40A a 40C son diagramas que muestran un soporte de grabación para almacenar el programa a fin de realizar el procedimiento de codificación de imágenes en movimiento y el procedimiento de descodificación de imágenes en movimiento de la presente invención.
Mejor modo de realizar la invención
Se describirá en lo sucesivo una realización de la presente invención con referencia a las figuras.
Estructura de un flujo AVC
En primer lugar, la estructura de un flujo AVC a generar por un aparato de generación de flujos de imágenes en movimiento, un aparato de codificación de imágenes en movimiento y un aparato de multiplexado de imágenes en movimiento de la presente invención, dicho de otro modo, se describirá un flujo AVC a introducir en un aparato de descodificación de imágenes en movimiento de la presente invención.
La Fig. 8A y la Fig. 8B muestran, respectivamente, las estructuras de flujos AVC de la presente invención. Obsérvese que la información de frontera a añadir a la parte superior de una unidad NAL no se muestra en la figura. El flujo AVC difiere de un flujo AVC convencional en cuanto a que se añade información de reproducción trucada, indicando la información de reproducción trucada las AU a descodificar en el momento de la reproducción trucada, tal como la reproducción a saltos, la reproducción de velocidad variable y la reproducción inversa. La información de reproducción trucada se almacena en una unidad NAL para almacenar información de reproducción (Fig. 8A). En la AVC de MPEG-4, la relación entre la información a almacenar y el tipo de unidad NAL de una unidad NAL específica se puede establecer por aplicación. Más específicamente, pueden usarse los valores de 0 y 24 a 31, y estos tipos de unidad NAL se denominan tipos de unidad NAL ajustables por usuario. En consecuencia, la información de reproducción trucada se almacena en la unidad NAL que tiene tales tipos de unidad NAL ajustables por usuario. Aquí, en el caso en el cual los tipos de Unidad NAL específicos se reservan para almacenar la información distinta de la información de reproducción trucada, los tipos de unidad NAL que son diferentes a los tipos de unidad NAL se asignan a la información de reproducción trucada. Las unidades NAL de la información de reproducción trucada se almacenan en la AU superior de una unidad RAU de acceso aleatorio. Tal unidad NAL se coloca inmediatamente después de una unidad NAL de PPS, si está presente, en una AU, pero se puede colocar en otra posición mientras el orden satisfaga el requisito de la AVC de MPEG-4 u otra norma. Igualmente, en el caso en el cual es imposible interpretar la unidad NAL de información de reproducción trucada, los datos de la unidad NAL se pueden saltar y reiniciar la descodificación desde la parte superior de la siguiente unidad NAL. Por lo tanto, incluso un terminal que no puede interpretar la unidad NAL de información de reproducción trucada puede llevar a cabo el procesamiento de descodificación sin fallos.
Obsérvese que tal unidad NAL de información de reproducción trucada se puede incluir, no en la AU superior de una unidad RAU de acceso aleatorio, sino en otra AU tal como la última AU. Igualmente, tal unidad NAL de información de reproducción trucada se puede incluir en cada AU que constituye una unidad RAU de acceso aleatorio.
Las Fig. 9 a 11 muestran ejemplos de AU a descodificar en el momento de la reproducción a velocidad variable. La Fig. 9A muestra el orden de visualización de las AU. Aquí, las AU sombreadas diagonalmente son las AU a las que se refieren otras AU, y las flechas muestran imágenes a las que se hace referencia. Se asignan números negativos de referencia a las AU a visualizar antes de 10, y se asignan números positivos de referencia a las AU a visualizar después de B15. La Fig. 9B muestra el orden de descodificación de las AU mostradas en la Fig. 9A, y 10 a B11 constituyen una unidad RAU de acceso aleatorio. En este momento, 10, -B14, P4, B2, P8, P6, P12 y B10 se descodifican para llevar a cabo una reproducción a doble velocidad (Fig. 9C), mientras que 10, P4, P8 y P12 se descodifican para llevar a cabo una reproducción de cuádruple velocidad (Fig. 9D). Las Fig. 9C y 9D muestran que las AU con un signo * se han de descodificar en el momento de reproducción a doble velocidad y de reproducción de cuádruple velocidad, y estos fragmentos de información se almacenan en la unidad NAL de la información de reproducción trucada. En el ejemplo de la Fig. 10A a 10D, las imágenes de 10 a B11 en el orden de descodificación constituyen una unidad RAU de acceso aleatorio. Aquí, 10, -B13, P3, B1, P6, B4, P9, B7, P12 y B10 se descodifican para llevar a cabo una reproducción a una velocidad multiplicada por 1,5 mientras que I0, P3, P6, P9 y P12 se descodifican para llevar a cabo una reproducción a triple velocidad. Igualmente, en el ejemplo de la Fig. 11A a 11C, I0, P3, P6, P9 y P12 se descodifican para llevar a cabo una reproducción a triple velocidad.
Aquí las velocidades de reproducción no necesitan ser exactas porque se describen como directrices de las velocidades de reproducción. Por ejemplo, en el ejemplo de la Fig. 11C, en el caso en el cual todas las AU mostradas como las AU a descodificar en el momento de la reproducción a triple velocidad se descodifican, la velocidad es 3,2 veces superior a la obtenida a partir de la expresión: 16:5; dicho de otro modo, no es exactamente una triple velocidad. Igualmente, en el momento de la reproducción multiplicada por M, en el caso en el cual el menor valor sobre M es N entre las velocidades de reproducción mostradas como información de reproducción trucada, es posible descodificar las AU necesarias para ser descodificadas en el momento de reproducción multiplicada por N y determinar el modo en que el resto de las AU se deberían codificar, según la implementación del aparato de descodificación. Igualmente, es posible colocar prioridades elevadas sobre las AU necesarias para ser descodificadas en el caso en el cual la velocidad de reproducción es rápida, y determinar las AU a descodificar sobre la base de las prioridades.
Obsérvese que algunas AU, entre las AU a descodificar en el momento de la reproducción de velocidad variable, pueden no visualizarse. Por ejemplo, se visualiza la N-ésima AU en el momento de la reproducción de doble velocidad, pero no se visualiza la M-ésima AU. En este momento, en el caso en el cual existe una necesidad de descodificar la M-ésima AU a fin de descodificar la N-ésima AU, la M-ésima AU se descodifica pero no se visualiza en el momento de la reproducción a doble velocidad.
A continuación, el procedimiento para especificar las AU a descodificar en el momento de reproducción a velocidad variable se describirá con referencia a las Fig. 12A a 12F. Las Fig. 12A a 12F muestran los ejemplos de especificación de las AU a descodificar en la misma unidad RAU de acceso aleatorio que la de la Fig. 9. Como se muestra en la Fig. 12D, 10, -B14, P4, B2, P8, P6, P12, B10 se descodifican en el momento de la reproducción a doble velocidad. Estas AU son la primera, segunda, quinta, sexta, novena, décima, decimotercera y decimocuarta AU cuando se cuentan las AU a partir de la AU superior de la unidad RAU de acceso aleatorio. De esta manera, es posible especificar unívocamente las AU a descodificar en el momento de reproducción a velocidad variable mostrando los números ordinales de las AU en una unidad RAU de acceso aleatorio. Un delimitador de unidades de acceso se coloca seguramente en la parte superior de una AU en el momento de multiplexar un flujo AVC por un flujo de transporte (TS) de MPEG-2. Cuando se obtienen datos de AU a descodificar en el momento de reproducción a velocidad variable, los delimitadores de unidades de acceso se buscan en secuencia para conocer los límites de las AU. Esta forma de procesamiento de búsqueda elimina la necesidad de analizar la carga útil de unidades NAL, tales como datos de segmentos, y por ello es más fácil.
Obsérvese que es posible especificar las AU a descodificar determinando que las AU a las que harán referencia otras AU, tales como las AU de una imagen I e imágenes P (tales AU a las que se hará referencia se denominan AU de referencia), se descodifican en el momento de la reproducción a velocidad variable, y especificando los números ordinales de las AU de referencia en una unidad RAU de acceso aleatorio. En la unidad RAU de acceso aleatorio de la Fig. 12B, como se muestra en la Fig. 12C, 10, -B14, P4, B2, P8, P6, P12, B10, son AU de referencia. Igualmente, en el momento de la reproducción a doble velocidad, 10, -B14, P4, B2, P8, P6, P12, B10 se descodifican, pero cuando se indican estas AU en el orden de las AU de referencia, corresponden a la primera, segunda, tercera, cuarta, quinta, sexta, séptima y octava AU de referencia, como se muestra en la Fig. 12F. Si una AU es o no una AU de referencia puede evaluarse refiriéndose a un campo específico en el encabezamiento de la unidad NAL en un segmento. Más específicamente, en el caso en el que el valor de un campo nal_ref_idc no es 0, la AU es una AU de referencia. Obsérvese que una AU de referencia a descodificar se puede especificar sobre la base de un número de trama, porque es posible identificar una AU de referencia sobre la base de un número de trama.
Además, es posible especificar las AU a descodificar especificando el valor desplazado equivalente a la longitud en octetos, desde la posición de inicio de la AU superior de una unidad RAU de acceso aleatorio hasta la posición de inicio de la AU a descodificar. Por ejemplo, en las Fig. 12A a 12F, en el caso en que 10 se inicie con la posición alejada de la parte superior de un flujo en 10.000 octetos, y P4 se inicia con la posición alejada de P4 en 20.000 octetos, el valor desplazado hasta P4 es de 10.000 octetos, obtenido a partir de la expresión: 20.000 - 10.000. En el caso en el cual se usa un flujo multiplexado en un TS de MPEG-2, es posible especificar un valor de desplazamiento que incluye el sobregasto del encabezamiento de un paquete de TS o un paquete de PES (Flujo elemental en paquetes), o es posible especificar un valor desplazado que lo incluye en el momento de llevar a cabo el relleno de datos por aplicación. Igualmente, es posible especificar una AU por un número FN de trama.
Obsérvese que, en el caso de usar un flujo multiplexado en un TS de MPEG-2, es posible especificar las AU basándose en el número de paquetes TS a partir de (i) el paquete TS para almacenar el número de índice y la información de dirección para identificar un paquete TS que incluye los datos superiores de las AU a descodificar, o los datos superiores de la unidad RAU de acceso aleatorio a (ii) el paquete TS actual. Aquí, es posible utilizar la información sobre el Paquete de Origen a utilizar para un formato de grabación de un disco Blu-ray (BD) en lugar de un paquete TS. El Paquete de Origen se obtiene añadiendo, a un paquete TS, un encabezamiento de 4 bytes que incluye información temporal del paquete TS, información de control de copia y similares.
La Fig. 13A es un ejemplo de sintaxis de una tabla que indica la información para reproducción a velocidad variable. En la sintaxis, nro_imag_en_RAU muestra el número de las AU que constituyen una unidad RAU de acceso aleatorio, nro_velocidad muestra el número de velocidades de reproducción a las cuales las AU han de descodificarse, velocidad_reproducción muestra una velocidad de reproducción, nro_imag_desc muestra el número de las AU a descodificar en el momento de la reproducción a una velocidad de reproducción mostrada en velocidad_reproducción, imag_desc muestra los números ordinales de las AU a descodificar en el caso de contar las AU a partir de la AU superior en una unidad RAU de acceso aleatorio. La Fig. 13B es un ejemplo en el caso de almacenar información sobre las AU a descodificar en una unidad RAU de acceso aleatorio mostrada en las Fig. 9A a 9D en el momento de una reproducción a doble velocidad y una reproducción a cuádruple velocidad. Obsérvese que nro_imag_en_RAU se usa en el momento de calcular una velocidad de reproducción exacta basada en el número de las AU a descodificar y el número total de las AU en una unidad RAU de acceso aleatorio, o de saltar en base unidades RAU de acceso aleatorio en secuencia. Sin embargo, nro_imag_en_RAU se puede omitir porque la misma información se puede obtener buscando las AU superiores de las unidades RAU de acceso aleatorio. Igualmente, se puede añadir a la tabla un campo que indica el tamaño de una tabla. Obsérvese que, en el ejemplo de sintaxis de la Fig. 13A, el número ordinal de una AU a descodificar, contando desde la parte superior de una unidad RAU de acceso aleatorio, se muestra directamente, pero si es necesario o no descodificar cada AU puede mostrarse encendiendo o apagando los bits correspondientes a cada AU. Por ejemplo, una unidad RAU de acceso aleatorio se compone de 16 AU en el ejemplo de las Fig. 9A a 9D, y se necesitan 16 bits cuando se asigna 1 bit a una AU. En el momento de la reproducción a cuádruple velocidad, se muestra que la primera, quinta, novena y decimotercera AU se descodifican asignando información de 16 bits que se representa como 0b1000100010001000 (0b indica un número binario). Aquí, el bit superior y el último bit corresponden, respectivamente, a la AU superior y la última AU de una unidad RAU de acceso
aleatorio.
Obsérvese que el tamaño de una tabla es variable en el ejemplo de sintaxis de la Fig. 13A. El valor máximo del tamaño de la tabla se determina en el caso donde se prescriben el valor máximo del número de las AU que constituyen una unidad RAU de acceso aleatorio y el valor máximo de nro_velocidad. En consecuencia, es posible fijar el tamaño de la tabla en el valor máximo determinado y, en el caso donde el tamaño de la información para reproducción a velocidad variable no alcanza el valor máximo, es posible llevar a cabo el relleno. La fijación del tamaño de la tabla de esta manera hace posible obtener siempre los datos de un tamaño fijo cuando se obtiene la información de reproducción a velocidad variable, lo que permite acelerar el procesamiento de obtención de información. Obsérvese que el tamaño de tabla, o el tamaño de una unidad NAL para almacenar la tabla, se muestra como información de gestión. Igualmente, es posible predeterminar el tamaño de una unidad NAL para almacenar información de reproducción trucada, y, en el caso donde la información no se puede almacenar en una única unidad NAL, es posible almacenar la información para reproducción a velocidad variable en diversas unidades NAL por separado. En este momento el relleno se lleva a cabo sobre la carga útil de la última unidad NAL, de manera que el tamaño de la unidad NAL se convierta en el tamaño predeterminado. Igualmente, algunos valores prescritos se determinan como los valores del tamaño de la tabla, y el número de índice que indica un valor prescrito del tamaño de la tabla se puede mostrar en la tabla, o usar la información de gestión de la aplicación.
Igualmente, es posible mostrar información diferencial en lugar de enumerar todas las AU a descodificar a cada velocidad de reproducción. Como la información en el momento de la reproducción a una velocidad multiplicada por M (<N), solamente las AU necesarias para descodificar se muestran además de las AU a descodificar en el momento de la reproducción a una velocidad multiplicada por N. En el ejemplo de la Fig. 13B, como la segunda, sexta, décima y decimocuarta AU, además, de las AU a descodificar en el momento de la reproducción a velocidad cuádruple, se descodifican en el momento de la reproducción a doble velocidad, es posible mostrar solamente la segunda, sexta, décima y decimocuarta AU como la información para la reproducción a doble velocidad.
Obsérvese que las AU necesarias a descodificar en el momento de reproducción a velocidad variable se muestran en la descripción anterior, pero además, es posible mostrar la información que indica el orden de visualización de las AU necesarias a descodificar. Por ejemplo, la información en el momento de la reproducción a doble velocidad y la reproducción a velocidad cuádruple se muestra en el ejemplo de las Fig. 9A a 9D, pero hay un ejemplo de reproducción de esta unidad RAU de acceso aleatorio a triple velocidad. La visualización de una parte de las AU a visualizar en el momento de reproducción a doble velocidad, además de las AU a visualizar en el momento la reproducción a velocidad cuádruple, permite realizar una reproducción a triple velocidad. Aquí, cuando se considera el caso donde se visualizan una o más AU entre I0 y P4, que se han de visualizar en el momento de la reproducción a cuádruple velocidad, la información para la reproducción a doble velocidad muestra que los candidatos son -B14, B2, B6 y B10. Sin embargo, el orden de visualización de estas cuatro AU se puede obtener solamente en el caso donde se analiza la información de encabezamiento de un segmento. Aquí, puesto que la información en el orden de visualización muestra que solamente -B14 se visualiza entre I0 y P4, es posible determinar que -B14 sea descodificada. La Fig. 14 es un ejemplo de sintaxis que indica la información sobre el orden de visualización, y se obtiene añadiendo la información sobre el orden de visualización a la sintaxis de la Fig. 13A. Aquí, ind_pts_dts muestra si el orden de descodificación de las AU a descodificar a la velocidad de reproducción coincide o no con el orden de visualización de las AU, y solamente en el caso donde el orden de descodificación no coincide con el orden de visualización, la información del orden de visualización se muestra en un campo orden_visualización.
Obsérvese que, en el caso de reproducción a una velocidad de reproducción que no es mostrada por la información de reproducción a velocidad variable, es posible determinar las AU a descodificar y las AU a visualizar basándose en la regla que se predetermina en el terminal. Por ejemplo, en el caso de reproducción a triple velocidad en el ejemplo de la Fig. 9, es posible visualizar I0, B3, B9 y P12 además de las AU a visualizar en el momento de la reproducción a cuádruple velocidad, en lugar de visualizar una parte de las AU a visualizar en el momento de reproducción a doble velocidad. Aquí, como en las imágenes B, las imágenes B en las AU de referencia se pueden, preferiblemente, descodificar o visualizar.
Igualmente, hay un caso donde la reproducción trucada, tal como la reproducción a velocidad variable, se realiza reproduciendo solamente la AU de una imagen I o solamente las AU de una imagen I e imágenes P. Por lo tanto, se puede almacenar una lista de una imagen I e imágenes P como información de reproducción trucada. Las Fig. 15A a 15C muestran otro ejemplo. Aquí, las imágenes a partir de 10 a B14 se incluyen en una unidad RAU de acceso aleatorio como se muestra en la Fig. 15B y, entre esas, las AU de una imagen I e imágenes P son 10, P3, P6, P9, P12 y P15, como se muestra en la Fig. 15C. Por lo tanto, se almacena la información para identificar 10, P3, P6, P9, P12 y P15. En este momento, es posible añadir la información para distinguir la AU de una imagen I a partir de la AU de una imagen P. Igualmente, es posible mostrar la información para distinguir las siguientes imágenes entre sí, incluyendo las imágenes: una imagen I, imágenes P, imágenes B a servir de referencia (denominadas en lo sucesivo imágenes B de referencia), e imágenes B a las que no se hará referencia (denominadas en lo sucesivo imágenes B de no-
referencia).
Además, es posible almacenar la información de prioridad de las AU respectivas como información de reproducción trucada, y descodificar o visualizar las AU según las prioridades en el momento de la reproducción a velocidad variable. Es posible utilizar tipos de imágenes como información de prioridad. Por ejemplo, las prioridades de las AU se pueden asignar en el siguiente orden de enumeración: (i) una imagen I; (ii) imágenes P; (iii) imágenes B de referencia; e (iv) imágenes B de no-referencia. Igualmente, es posible establecer información de prioridad de la siguiente manera: cuanto mayor es el tiempo entre el momento después de la descodificación de una AU y el momento de visualización de la AU, mayor deviene la prioridad. Las Fig. 16A a 16C muestran un ejemplo de ajuste de las prioridades según el tiempo de detención en memoria temporal. La Fig. 16A muestra la estructura de predicción de las AU y a P3 se hace referencia también por parte de B7 y P9. En este momento, en el caso donde la unidad RAU de acceso aleatorio se compone de las AU desde I0 a B11 (Fig. 16B), el tiempo de detención en memoria temporal de cada AU es como se muestra en la Fig. 16C. Aquí, el tiempo de detección en memoria temporal se muestra basado en el número de tramas. Por ejemplo, P3 es necesario hasta que se descodifica P9, y el tiempo de detención en memoria temporal debe ser equivalente a seis imágenes. Por lo tanto, la descodificación de las AU cuyo tiempo de detención en memoria temporal es 3 o más significa la descodificación de toda la imagen I y todas las imágenes P, y se realiza la reproducción a triple velocidad. Aquí, el tiempo de detención en memoria temporal de P3 es superior al de 10, pero es posible añadir un valor desplazado a la AU de la imagen I para colocar la mayor prioridad sobre la AU de la imagen I. Igualmente, es posible colocar prioridades elevadas en las AU necesarias a descodificar en el momento de reproducción a alta velocidad y usar, como información de prioridad, N en las AU necesarias a descodificar en el momento de la reproducción a velocidad multiplicada por N. Obsérvese que, en el caso donde a una AU se hace referencia en otras AU después de ser descodificada o visualizada, es posible mostrar el periodo de tiempo durante el cual se hace referencia a la AU.
Obsérvese que la información de reproducción trucada se puede almacenar en un mensaje SEI (Fig. 8B). En este caso, el tipo de mensaje SEI se define para la información de reproducción trucada, y la información de reproducción trucada se almacena en el mensaje SEI del tipo definido. El mensaje SEI para la información de reproducción trucada se almacena en la unidad NAL de la SEI, solo o junto con otros mensajes. Obsérvese que es posible almacenar información de reproducción trucada en el mensaje SEI user_data_registered_itu_t_t35 o en el mensaje SEI user_data_unregistered, que son mensajes SEI para almacenar la información definida por un usuario. En el momento de usar estos mensajes SEI, es posible mostrar que la información de reproducción trucada se almacena, o que el tipo de información de reproducción trucada en la parte de carga útil de una SEI añadiendo información de identificación de la información a almacenar.
Obsérvese que es posible almacenar información de reproducción trucada en las AU distintas de la AU superior en una unidad RAU de acceso aleatorio. Igualmente, es posible predeterminar los valores para identificar las AU necesarias a descodificar en el momento de reproducción a una velocidad de reproducción específica y añadir los valores determinados para cada AU. Por ejemplo, en lo relativo a las AU a descodificar a una velocidad de reproducción que es una velocidad multiplicada por N, o inferior, N está dada como información de velocidad de reproducción. Igualmente, es posible mostrar lo siguiente en nal_ref_idc, y similares, de la unidad NAL de un segmento: la estructura de la imagen en una AU, siendo la estructura una estructura de trama o una estructura de campo y, además, en el caso donde la imagen tiene una estructura de campo, es posible mostrar el tipo de campo, que es un campo superior o un campo inferior. Por ejemplo, como existe una necesidad de visualizar alternadamente los campos superiores y los campos superiores en el caso de la visualización entrelazada, es deseable que pueda evaluarse fácilmente que el campo a descodificar a continuación es un campo superior o un campo inferior en el momento de descodificar campos saltando algunos campos en el momento de la reproducción a alta velocidad. En el caso donde el tipo de campo se puede evaluar a partir del encabezamiento de una unidad NAL, no hay necesidad de analizar el encabezamiento de segmentos y la magnitud de procesamiento necesaria para tal evaluación se puede reducir.
Obsérvese que la información que indica si la AU que constituye una unidad RAU de acceso aleatorio es un campo o una trama puede almacenarse en la AU superior de una unidad RAU de acceso aleatorio. Igualmente, es posible determinar fácilmente las AU a descodificar en el momento de la reproducción trucada, incluso en el caso donde una estructura de campo y una estructura de trama coexisten almacenando tal información en la AU superior de la unidad de acceso aleatorio. Las Fig. 17A y 17B son ejemplos donde las AU que tienen una estructura de trama y las AU que tienen una estructura de campo coexisten en la unidad RAU de acceso aleatorio, y muestran el orden de visualización de las AU y el orden de descodificación de las AU, respectivamente. Las siguientes imágenes se codifican, respectivamente, como pares de campos: B2 y B3; 14 y P5; B9 y B10; B11 y B12; P13 y P14; B15 y B16; B17 y B18; y P19 y P20. Igualmente, las otras AU se codifican como las AU que tienen una estructura de trama. En este momento, en el caso de reproducir solamente las AU de una imagen I e imágenes P, se puede descodificar y reproducir lo siguiente en el siguiente orden enumerado: el par de campos de 14 y P5; la trama de P8; el par de campos de P13 y P14; y el par de campos de P19 y P20. Sin embargo, la adición de tal información es efectiva porque hay una necesidad de evaluar si cada AU es uno de los campos que constituyen un par de campos o si cada AU es una trama en el momento de determinar las AU a descodificar.
La Fig. 17C es un ejemplo de sintaxis del primer mapa (RAU_map1) que indica si una AU en una unidad RAU de acceso aleatorio es una trama o un campo. El número de las AU que constituyen una unidad de acceso aleatorio se muestra en nro_AU_en_RAU, y la información sobre cada AU se muestra en el siguiente bucle en un orden de descodificación. Aquí, indicador_campo_trams muestra si la imagen a almacenar en un AU es una trama o un campo. Igualmente, tipo_imag muestra la información sobre el tipo de codificación de una imagen. Los tipos de codificación que se pueden mostrar incluyen: una imagen I; una imagen IDR; una imagen P; una imagen B de referencia; una imagen B de no-referencia; y similares. Por lo tanto, es posible determinar las imágenes a descodificar en el momento de la reproducción trucada refiriéndose a este mapa. Obsérvese que es posible indicar si cada imagen I y cada imagen P son objeto de referencia o no. Además, es posible indicar la información para evaluar si se aplica un requisito predeterminado en cuanto a las estructuras de predicción.
La Fig. 17D muestra RAU_map1, que se refiere a una unidad RAU de acceso aleatorio de la Fig. 17B. Aquí, los tipo_imag de una imagen I, imágenes P, imágenes B de referencia, e imágenes B de no-referencia, son 0, 1, 2 y 3, respectivamente. Aquí, es posible almacenar la información que indica los tipos de codificación de imágenes sobre las bases anteriormente enumeradas, porque las imágenes se reproducen trama a trama, o par de campos a par de campos, en el momento de la reproducción trucada.
La Fig. 17F es un ejemplo de sintaxis del segundo mapa (RAU-map2) que indica tipos de codificación de imágenes trama a trama o par de campos a par de campos. Aquí, nro_trama_en_RAU muestra el número de tramas que constituyen una unidad RAU de acceso aleatorio y el número de pares de campos. Igualmente, indicador_trama muestra si una imagen es una trama o no, y en el caso donde es una trama, se pone 1 allí. En el caso donde se pone 1 en indicador_trama, la información sobre el tipo de codificación de una trama se muestra en tipo_trama. En el caso donde se pone 0 en indicador_trama, dicho de otro modo, la imagen es uno de un par de campos, y el tipo de codificación de cada campo que constituye el par de campos se muestra en tipo_par_campos.
La Fig. 17E muestra el RAU_map2 en cuanto a la unidad RAU de acceso aleatorio de la Fig. 17B. En la Fig. 17E, los valores que indican el tipo_trama de una imagen I, imágenes P, imágenes B de referencia, e imágenes B de no-referencia, son 0, 1, 2 y 3, respectivamente. Igualmente, el tipo_par_campos muestra el tipo de cada campo en un orden de descodificación. Los tipos de campos son los siguientes: I para una imagen I; P para imágenes P; Br para imágenes B de referencia; y Bn para imágenes de no-referencia. Por ejemplo, se muestra como IP en el caso donde el primer campo es una imagen I y el segundo campo es una imagen P, y se muestra como BnBn en el caso donde el primer campo y el segundo campo son imágenes B de no-referencia. Aquí, los valores para indicar combinaciones de IP, PP, PI, BrBr, BnBn y similares se establecen previamente. Obsérvese que la siguiente información se puede usar como la información que indica el tipo de codificación de un par de campos: información en cuanto a si el par de campos incluye una imagen I o una o más imágenes P; información en cuanto a si el par de campos incluye una o más imágenes B de referencia; e información en cuanto a si el par de campos incluye una o más imágenes B de no-referencia.
Por ejemplo, la información de reproducción trucada puede ser el mapa de una unidad RAU de acceso aleatorio, como una sintaxis mostrada en la Fig. 18A. Este mapa incluye estructura_imagen, que indica la estructura de cada una de las imágenes incluidas en la unidad RAU de acceso aleatorio, y tipo_imagen, que indica el tipo de imagen. Como se muestra en la Fig. 18B, estructura_imagen muestra la estructura de cada imagen, es decir, una estructura de campo o una estructura de trama, y similares. Igualmente, como se muestra en la Fig. 18C, tipo_imagen muestra el tipo de imagen de cada imagen, es decir, una imagen I, una imagen B de referencia, una imagen B de no-referencia, y una imagen P. De este modo, el aparato de descodificación de imágenes en movimiento que recibió este mapa puede identificar fácilmente las AU sobre las cuales se realiza la reproducción trucada refiriéndose a este mapa. Como ejemplo, es posible descodificar y reproducir, en reproducción a velocidad elevada, solamente una imagen I e imágenes P, o imágenes B de referencia, además de una imagen I e imágenes P.
Obsérvese que en el caso donde la información que indica la estructura de imagen, tal como un avance descendente 3-2, se incluye en una AU que constituye una unidad RAU de acceso aleatorio, es posible incluir la información que indica la estructura de imagen en el primer o segundo mapa anteriormente descrito. Por ejemplo, es posible mostrar si cada imagen tiene campos de visualización equivalentes a tres imágenes o si cada imagen tiene campos de visualización equivalentes a dos imágenes, Además, en el caso donde tiene campos de visualización equivalentes a tres imágenes, es posible mostrar la información que indica si el primer campo se visualiza repetidamente, o la información que indica si el primer campo es un campo superior. Igualmente, en el caso donde tiene campos de visualización equivalentes a dos imágenes, es posible mostrar la información de si el primer campo es un campo superior. Aquí, en la AVC de MPEG-4, si una imagen tiene o no una estructura de imagen, tal como un avance descendente 3-2, puede mostrarse usando (i) el pic_struct_present_flag de un conjunto (SPS) de parámetros de secuencia o (ii) el picture_to_display_conversion_flag, y similares, en la temporización de la AVC y el descriptor HRD que se define en la norma del sistema MPEG-2. Además, la estructura de cada imagen se muestra por un campo pic_struct de una SEI de Temporización de Imagen. Por lo tanto, es posible mostrar la estructura de imagen fijando un indicador solamente en el caso donde un campo pic_struct tiene un valor específico, por ejemplo, una imagen tiene campos de visualización equivalentes a tres imágenes. Dicho de otro modo, indicar los tres siguientes tipos de información en cuanto a cada imagen es efectivo (i) en el caso donde la reproducción a saltos se realiza en medio de una unidad RAU de acceso aleatorio y (ii) en el momento de determinar el campo a visualizar en un momento específico o la trama en la cual se almacena un campo. Lo mismo se puede decir en el caso de determinar imágenes a visualizar durante la reproducción a velocidad variable. Los tres tipos de información son:
(i)
campo
(ii)
trama (que se usa en el momento de no usar un avance descendente de 3-2, o que se usa también en el momento de usar un avance descendente de 3-2. En el último caso, la trama tiene campos de visualización equivalentes a dos imágenes).
(iii)
trama que tiene un campo de visualización equivalente a tres imágenes en el momento de usar un avance descendente de 3-2
Obsérvese que estos tipos de información se pueden indicar en la estructura_imagen de un mapa de RAU mostrado en la Fig. 18A.
Indicar información de lista de tipos de imágenes de las imágenes respectivas que constituyen una RAU de esta manera hace que sea posible determinar fácilmente imágenes a descodificar o visualizar en el momento de realizar una reproducción trucada, tal como la reproducción a velocidad variable, la reproducción a saltos y la reproducción inversa. Esto es especialmente efectivo en los siguientes casos:
(i)
donde solamente una imagen I e imágenes P se reproducen;
(ii)
donde se efectúa la reproducción a alta velocidad, en la cual hay una imagen I, imágenes P e imágenes B de referencia; y
(iii)
donde las imágenes, sobre las cuales se establecen requisitos en cuanto a las estructuras de predicción, se identifican sobre la base de los tipos de imagen, se seleccionan las imágenes necesarias a descodificar en el momento de la reproducción trucada, y las imágenes seleccionadas se reproducen en reproducción trucada.
Además, es posible almacenar un valor por omisión de información de reproducción trucada en una región, que es diferente al flujo de AVC, tal como la información de gestión a nivel de aplicación, e incluir información de reproducción trucada en una unidad RAU de acceso aleatorio solamente en el caso donde la información de reproducción trucada es distinta a la información de reproducción trucada mostrada por el valor por omisión.
La información de reproducción trucada en cuanto a la reproducción a velocidad variable se ha descrito anteriormente, pero es posible utilizar información similar como información suplementaria en el momento de la reproducción inversa. Es posible completar la descodificación en un momento, en el momento de la reproducción inversa en el caso donde todas las imágenes a visualizar se pueden almacenar en una memoria, y la carga de procesamiento necesaria para la descodificación se puede reducir. Considerando un caso de realización de reproducción inversa en el orden enumerado de P12, P8, P4 e I0 en el ejemplo de las Fig. 9A a 9D, a condición de que todos los resultados de la descodificación de las cuatro AU se almacenen, es posible descodificar 10, P4, P8 y P12 en este orden en un momento y realizar la reproducción inversa. Por lo tanto, es posible evaluar si todos los datos descodificados de las AU pueden o no almacenarse basándose en el número de las AU a descodificar o visualizar en el momento de la reproducción, a una velocidad multiplicada por N, y determinar las AU a visualizar en el momento de la realización de la reproducción inversa basándose en el resultado de la evaluación.
Igualmente, se puede usar información de reproducción trucada como información suplementaria en el momento de la reproducción a saltos. Aquí, la reproducción a saltos significa el avance rápido de una imagen en movimiento y realizar una reproducción normal del inicio de las imágenes en movimiento con la posición determinada al azar. Determinar imágenes de avance rápido utilizando tal información suplementaria, incluso en el momento de la reproducción a saltos, hace que sea posible determinar la imagen en la cual se inicia la reproducción a saltos.
Obsérvese que la AU a servir de referencia para cada AU que constituye una unidad de acceso aleatorio se puede mostrar directamente en la información trucada. En el caso donde hay diversas AU de referencia, se muestran todas ellas. Aquí, en el caso donde una AU de referencia pertenece a una unidad de acceso aleatorio distinta a la unidad de acceso aleatorio que incluye una AU que se refiere a la AU de referencia, la AU se puede indicar de la siguiente manera específica: la M-ésima AU de la unidad de acceso aleatorio que se coloca antes o después de N números de unidades de acceso aleatorio, o la AU se puede indicar de la siguiente sencilla manera: la AU que pertenece a la unidad de acceso aleatorio que se coloca antes o después de N números de unidades de acceso aleatorio. Obsérvese que es posible mostrar el número ordinal, en el orden de descodificación, de la AU de referencia en el caso de contar a partir de la AU que se refiere a la AU de referencia. En ese momento, las AU se cuentan sobre la base de uno de los siguientes casos: todas las AU; las AU de referencia; las AU de un tipo de imagen específico tal como I, P y B. Igualmente, es posible mostrar que cada AU se puede referir a las AU de solamente hasta N números de AU antes y después, en un orden de descodificación. Obsérvese que, en el caso de referirse a una AU que no se incluye en las AU de hasta N números de AU antes y después en el orden de descodificación, es posible añadir la información que indica el hecho.
Obsérvese que es posible usar la información de reproducción trucada anteriormente descrita de una manera similar también en un formato de multiplexado, tal como MP4, donde el tamaño de una unidad NAL se usa en lugar de usar un prefijo de código de inicio como información de frontera de una unidad NAL.
Obsérvese que, en el momento de recibir y grabar un flujo codificado que se paquetiza usando un paquete TS (Flujo de transporte) de MPEG-2, o un RTP (Protocolo de transmisión en tiempo real), se produce una pérdida de paquetes. De esta manera, en el caso de la grabación de los datos recibidos en un entorno en el que se produce una pérdida de paquetes, es posible almacenar, en un flujo codificado como información suplementaria, o como información de gestión, la información que indica que los datos en un flujo se han perdido a causa de una pérdida de paquetes. Es posible mostrar una pérdida de datos debida a la pérdida de un paquete insertando la información de indicador que indica si los datos del flujo se han perdido o no, o un código de notificación de error especial para notificar la parte perdida. Obsérvese que, en el caso de la realización del procesamiento de ocultación de error cuando se pierden los datos, es posible almacenar información de identificación que indica la presencia/ausencia, o el procedimiento, del procesamiento de ocultación de error.
La información de reproducción trucada para determinar las AU a descodificar o visualizar en el momento de la reproducción trucada se ha descrito hasta este punto. Aquí, la estructura de datos para permitir la detección de la frontera de las unidades RAU de acceso aleatorio se describirá con referencia a la Fig. 19.
En la AU superior de una unidad RAU de acceso aleatorio, la unidad NAL de un SPS a ser objeto de referencia por una AU que constituye una unidad RAU de acceso aleatorio se almacena siempre. Por otra parte, en la norma AVC de MPEG-4, es posible almacenar la unidad NAL del SPS a ser objeto de referencia por la N-ésima AU en un orden de descodificación, en una AU que se selecciona arbitrariamente entre la N-ésima AU o las AU colocadas antes de la N-ésima AU en un orden de descodificación. Tal unidad NAL se almacena de manera que la unidad NAL de un SPS pueda transmitirse repetidamente, en preparación para el caso donde la unidad NAL de un SPS se pierde a causa de una pérdida de paquetes en el momento de transmitir un flujo en comunicación o difusión. Sin embargo, la siguiente regla es efectiva para el uso de las aplicaciones de almacenamiento. Solamente una única unidad NAL del SPS a ser objeto de referencia por todas las AU de la unidad RAU de acceso aleatorio se almacena en la AU superior de una unidad RAU de acceso aleatorio, y la unidad NAL del SPS no se almacena en las siguientes AU en la unidad de acceso aleatorio. Hacerlo así posibilita garantizar que la AU es la AU superior de la unidad RAU de acceso aleatorio si incluye la unidad NAL de un SPS. El inicio de la unidad RAU de acceso aleatorio se puede encontrar buscando la unidad NAL del SPS. La información de gestión de un flujo tal como un mapa temporal no garantiza la provisión de información de acceso en cuanto a todas las unidades RAU de acceso aleatorio. Por lo tanto, es especialmente efectivo que la posición de inicio de cada unidad RAU de acceso aleatorio se pueda obtener buscando la unidad NAL de un SPS en un flujo en el caso de, por ejemplo, realizar reproducción a saltos sobre la imagen situada en medio de la unidad RAU de acceso aleatorio cuya información de acceso no se proporciona.
Aquí, en el caso donde la AU superior de la unidad RAU de acceso aleatorio es la AU de una imagen IDR, la AU de la unidad RAU de acceso aleatorio no se refiere a la AU en la unidad RAU de acceso aleatorio que se sitúa previamente en un orden de descodificación. Este tipo de unidad RAU de acceso aleatorio se denomina unidad RAU de acceso aleatorio de tipo cerrado. Por otra parte, en el caso donde la AU superior de una unidad RAU de acceso aleatorio es la AU de una imagen I que no es una imagen IDR, la AU de la unidad RAU de acceso aleatorio puede referirse a la AU en la unidad RAU de acceso aleatorio que se sitúa previamente en un orden de descodificación. Este tipo de unidad RAU de acceso aleatorio se denomina unidad RAU de acceso aleatorio de tipo abierto. En el momento en que los ángulos se conmutan durante la reproducción en un disco óptico o similar, la conmutación se realiza a partir de una unidad RAU de acceso aleatorio RAU. Por lo tanto, es efectivo que la evaluación en cuanto a si una unidad RAU de acceso aleatorio es una unidad RAU de acceso aleatorio de tipo abierto o de tipo cerrado se pueda hacer en la parte superior de la unidad RAU de acceso aleatorio. Por ejemplo, es posible mostrar la información de indicador para evaluar el tipo, es decir, un tipo abierto o un tipo cerrado, en un campo nal_ref_idc de la unidad NAL de un SPS. Como se define que el valor de nal_ref_idc es 1 o más en la unidad NAL de un SPS, el bit de orden superior se fija siempre en 1 y la información de indicador se muestra mediante el bit de orden inferior. Obsérvese que una AU en una unidad RAU de acceso aleatorio no puede referirse a una AU en una unidad RAU de acceso aleatorio que se sitúa previamente en un orden de descodificación, incluso en el caso donde la AU superior es la AU de una imagen I que no es una IDR. Este tipo de unidad RAU de acceso aleatorio se puede considerar como una unidad RAU de acceso aleatorio de tipo cerrado. Obsérvese que la información de indicador se puede mostrar usando un campo distinto de nal_ref_idc.
Obsérvese que es posible especificar la posición de inicio de una unidad RAU de acceso aleatorio basada en la unidad NAL distinta de un SPS, a almacenar solamente en la AU superior de una unidad RAU de acceso aleatorio. Igualmente, es posible mostrar el tipo, es decir, el tipo abierto o el tipo cerrado, de cada una de las unidades RAU de acceso aleatorio, usando el campo nal_ref_idc de cada unidad RAU de acceso aleatorio.
Finalmente, las Fig. 20A y 20B muestran ejemplos de estructuras de predicción de las AU que constituyen una unidad RAU de acceso aleatorio. La Fig. 20A muestra las posiciones de las AU en un orden de visualización, y la Fig. 20B muestra las posiciones de las AU en el orden de descodificación. Como se muestra en las figuras, B1 y B2, que se muestran antes de 13, que es la AU superior de una unidad RAU de acceso aleatorio, se pueden referir a las AU a visualizar después de I3. En la figura, B1 se refiere a P6, Aquí, con el fin de garantizar que las AU de I3 y las siguientes imágenes en el orden de visualización se puedan descodificar correctamente, se prohíbe que las AU de I3 y las siguientes imágenes en el orden de visualización se refieran a las AU antes de I3 en el orden de visualización.
Aparato de codificación de imágenes en movimiento
La Fig. 21 es un diagrama en bloques del aparato 100 de codificación de imágenes en movimiento que realiza el procedimiento de codificación de imágenes en movimiento de la presente invención. Este aparato 100 de codificación de imágenes en movimiento genera un flujo codificado, mostrado en las Fig. 8 a 20, de una imagen en movimiento que se puede reproducir usando una reproducción trucada tal como la reproducción a saltos, la reproducción a velocidad variable y la reproducción inversa. El aparato 100 de codificación de imágenes en movimiento incluye una unidad TrickPlay de generación de información de reproducción trucada, además de las unidades de un aparato 1 codificación de imágenes en movimiento mostrado en la Fig. 4. Obsérvese que a las unidades de procesamiento que realizan las mismas operaciones que las unidades de procesamiento de un aparato convencional de codificación de imágenes en movimiento, mostrado en el diagrama en bloques de la Fig. 4, se asignan los mismos números de referencia en la figura, y sus descripciones se omitirán.
La unidad TrickPlay de generación de información de reproducción trucada es un ejemplo de una unidad que genera, sobre la base de una unidad de acceso aleatorio que incluye una o más imágenes, información suplementaria para ser objeto de referencia en el tiempo de reproducción de las unidades de acceso aleatorio. La unidad TrickPlay de generación de información de reproducción trucada genera información de reproducción trucada basada en tipos TipoI de imágenes, y notifica la información de reproducción trucada a la unidad VLC de codificación de longitud variable.
La unidad VLC de codificación de longitud variable es un ejemplo de una unidad de generación de flujo que genera un flujo que incluye información suplementaria e imágenes, añadiendo la información suplementaria generada a cada unidad de acceso aleatorio correspondiente. La unidad VLC de codificación de longitud variable codifica y coloca la unidad NAL para almacenar información de reproducción trucada en la AU superior de una unidad RAU de acceso aleatorio.
La Fig. 22 es un diagrama de flujo de cómo el aparato 100 de codificación de imágenes en movimiento (principalmente la unidad TrickPlay de generación de información de reproducción trucada) mostrado en la Fig. 21 realiza el procedimiento de generación de un flujo codificado que incluye información de reproducción trucada.
En primer lugar, en la etapa 10, el aparato 100 de codificación de imágenes en movimiento evalúa si la AU a codificar es o no la AU superior de una unidad RAU de acceso aleatorio. En el caso donde es la AU superior, se pasa a la Etapa 11, mientras que en el caso donde no es la AU superior, se pasa a la etapa 12. En la etapa 11, el aparato 100 de codificación de imágenes en movimiento realiza el procesamiento inicial para generar información de reproducción trucada de la unidad RAU de acceso aleatorio, e igualmente, asegura el área para almacenar la información de reproducción trucada en la AU superior de la unidad RAU de acceso aleatorio. En la Etapa 12, el aparato 100 de codificación de imágenes en movimiento codifica los datos de AU, y pasa entonces a la Etapa 13. En la Etapa 13, el aparato 100 de codificación de imágenes en movimiento obtiene la información necesaria en el momento de generar información de reproducción trucada. Tal información es: los tipos de imágenes de la AU, es decir, una imagen I, una imagen P, una imagen B de referencia, o una imagen B de no-referencia; o si hay necesidad de descodificar la AU en el momento de realizar la reproducción a una velocidad multiplicada por N. Después de esto, el aparato 100 de codificación de imágenes en movimiento pasa a la Etapa 14. En la Etapa 14, el aparato 100 de codificación de imágenes en movimiento evalúa si la AU es la última AU de la unidad RAU de acceso aleatorio. En el caso donde es la última AU, el aparato 100 de codificación de imágenes en movimiento pasa a la Etapa 15, mientras que en el caso donde no es la última AU, pasa a la Etapa 16. En la Etapa 15, el aparato 100 de codificación de imágenes en movimiento determina información de reproducción trucada, genera la unidad NAL para almacenar la información de reproducción trucada, y almacena la unidad NAL generada en el área asegurada en la Etapa 11. Después completar el procesamiento de la Etapa 15, el aparato 100 de codificación de imágenes en movimiento pasa a la Etapa 16. En la Etapa 16, el aparato 100 de codificación de imágenes en movimiento evalúa si hay o no una AU a codificar a continuación. En el caso donde hay una AU a codificar, repite la Etapa 10 y las siguientes etapas, mientras que en el caso donde no hay AU a codificar, completa el procesamiento. Aquí, en el caso donde el aparato 100 de codificación de imágenes en movimiento evalúa que no hay AU a codificar en la Etapa 16, almacena información de reproducción trucada de la última unidad RAU de acceso aleatorio, y a continuación completa el procesamiento.
Por ejemplo, cuando el aparato 100 de codificación de imágenes en movimiento genera información de reproducción trucada mostrada en la Fig. 18A, obtiene lo siguiente en la Etapa 13: el tipo de imagen; si la imagen tiene una estructura de campo o si la imagen tiene una estructura de trama; o/y la información que indica si el campo de visualización de la imagen es equivalente a dos imágenes o equivalente a tres imágenes en el caso donde la información en cuanto a un avance descendente 3-2 se incluye en el flujo codificado. En la Etapa 15, el aparato 100 de codificación de imágenes en movimiento establece la estructura_imagen y el tipo_imagen de todas las imágenes en la unidad RAU de acceso aleatorio en un orden de descodificación.
Obsérvese que, en el caso donde el tamaño de la unidad NAL para almacenar información de reproducción trucada no se conoce en el momento de iniciar la codificación de la AU superior de una unidad RAU de acceso aleatorio, el procesamiento para asegurar el área para almacenar la información de reproducción trucada se omitirá en la Etapa 11. En este caso, la unidad NAL generada para almacenar información de reproducción trucada se inserta en la AU superior en la Etapa 15.
Igualmente, el almacenar o no almacenar la información de reproducción trucada se puede conmutar sobre una base de flujo codificado. Especialmente en el caso donde la estructura de predicción entre las AU que constituyen una unidad de acceso aleatorio se prescribe por aplicación, es posible determinar que la información de reproducción trucada no está almacenada. Por ejemplo, en el caso donde un flujo codificado tiene la misma estructura de predicción que en el caso de un flujo de MPEG-2, no hay necesidad de almacenar información de reproducción trucada. Esto es debido al hecho de que es posible determinar las AU necesarias a descodificar en el momento de la reproducción trucada sin información de reproducción trucada. Obsérvese que tal conmutación se puede llevar a cabo sobre la base de una unidad RAU de acceso aleatorio.
Aparato de multiplexado de imágenes en movimiento
La Fig. 23 es un diagrama en bloques que muestra la estructura del aparato 108 de multiplexado de imágenes en movimiento de la presente invención. Este aparato 108 de multiplexado de imágenes en movimiento introduce datos de imágenes en movimiento, codifica los datos de imágenes en movimiento para componer un flujo AVC de MPEG-4, multiplexa el flujo con la información de acceso a las AU que constituyen el flujo y la información de gestión que incluye la información suplementaria para determinar operaciones realizadas en el momento de la reproducción trucada, y graba el flujo multiplexado. El aparato 108 de multiplexado de imágenes en movimiento incluye una unidad 101 de determinación de atributos de flujo, una unidad 102 de codificación, una unidad 103 de generación de información de gestión, una unidad 106 de multiplexado y una unidad 107 de almacenamiento. Aquí, la unidad 102 de codificación tiene una función para añadir información de reproducción trucada en el aparato 100 de codificación de imágenes en movimiento mostrado en la Fig. 21.
La unidad 101 de determinación de atributos de flujo determina los requisitos concernientes a la reproducción trucada realizada en el momento de la codificación de un flujo AVC de MPEG-4, y los envía a la unidad 102 de codificación y a la unidad 105 de generación de información de soporte de reproducción como información de atributo TYPE. Aquí, los requisitos concernientes a la reproducción trucada incluyen información que indica: si el requisito para constituir una unidad de acceso aleatorio se aplica o no a un flujo AVC de MPEG-4; si la información que indica las AU a descodificar o visualizar en el momento de reproducción a velocidad variable o reproducción inversa se incluye en el flujo; o si se establece o no un requisito sobre la estructura de predicción entre las AU. La unidad 101 de determinación de atributos de flujo envía a la unidad 104 de generación de información de gestión general la información de gestión general que es la información necesaria para generar información de gestión tal como un formato de compresión o una resolución. La unidad 102 de codificación codifica los datos de video introducidos en el flujo AVC de MPEG-4 basándose en la información de atributo TYPE, envía los datos codificados a la unidad 106 de multiplexado, y envía la información de acceso en el flujo a la unidad 104 de generación de información de gestión general. Aquí, en el caso donde la información de atributo TYPE muestra que la información que indica las AU a descodificar o visualizar en el momento de reproducción a velocidad variable o reproducción inversa no se incluye en el flujo, la información de reproducción trucada no se incluye en el flujo codificado. Obsérvese que la información de acceso indica la información de una unidad de acceso que es la unidad básica al acceder al flujo, e incluye la dirección de inicio, el tiempo de visualización, y similares, de la AU superior en una unidad de acceso. La unidad 104 de generación de información de gestión general genera los datos de tabla a los que referirse en el momento de acceso a un flujo, y los datos de tabla que almacenan información de atributos, tales como un formato de compresión basado en la información de acceso, y la información de gestión general, y envía los datos de tabla a la unidad 106 de multiplexado como la información de gestión INFO. La unidad 105 de generación de información de soporte de reproducción genera información de soporte HLP que indica si el flujo tiene una estructura de acceso aleatorio basada en la información de atributo TYPE introducida, y envía la información de soporte HLP a la unidad 106 de multiplexado. La unidad 106 de multiplexado genera datos codificados introducidos a través de la unidad 102 de codificación, la información de gestión INFO, y los datos de multiplexado, multiplexando la información de soporte HLP, y luego los envía a la unidad 107 de almacenamiento. La unidad 107 de almacenamiento graba los datos de multiplexado introducidos a través de la unidad 106 de multiplexado en un soporte de grabación, tal como un disco óptico, un disco rígido y una memoria. Obsérvese que la unidad 102 de codificación puede paquetizar el flujo AVC de MPEG-4 en, por ejemplo, un TS (flujo de transporte) de MPEG-2 o un PS (flujo de programa) de MPEG-2, y a continuación envía los TS o PS de MPEG-2 paquetizados. Igualmente, la unidad 102 de codificación puede paquetizar el flujo usando un formato prescrito por la aplicación, tal como un BD.
Obsérvese que el contenido de la información de gestión no está obligado a depender de si la información de reproducción trucada se almacena en el flujo codificado o no. En este momento, la información de soporte HLP se puede omitir. Igualmente, el aparato 108 de multiplexado de imágenes en movimiento puede tener la estructura sin una unidad 105 de generación de información de soporte de reproducción.
Las Fig. 24A y 24B muestran ejemplos de la información mostrada por la información de soporte HLP. La información de soporte HLP incluye el procedimiento que indica directamente la información de un flujo como se muestra en la Fig. 24A, y el procedimiento que indica si el flujo satisface el requisito prescrito por una norma de aplicación específica, como se muestra en la Fig. 24B.
La Fig. 24A muestra lo siguiente como información concerniente a un flujo: información en cuanto a si el flujo tiene una estructura de acceso aleatorio; información en cuanto a si hay un requisito sobre la estructura de predicción entre imágenes almacenadas en una AU; e información en cuanto a si hay información que indica las AU a descodificar o visualizar en el momento de la reproducción trucada.
Aquí la información relativa a las AU a descodificar o visualizar en el momento de reproducción trucada puede indicar directamente las AU a descodificar o visualizar, o indicar las prioridades en el momento de descodificar o visualizar. Por ejemplo, se puede indicar que la información que indica que las AU a descodificar o visualizar sobre la base de las unidades de acceso aleatorio se almacena en una unidad NAL que tiene un tipo de unidad NAL especial prescrito por aplicación, un mensaje de SEI o similares. Obsérvese que es posible indicar si hay información que indica la estructura de predicción entre las AU que constituyen una unidad de acceso aleatorio. Igualmente, la información relativa a las AU a descodificar o visualizar en el momento de reproducción trucada se puede añadir sobre la base de una o más unidades de acceso aleatorio, o bien a cada una de las AU que constituyen la unidad de acceso aleatorio.
Además, en el caso donde la información que indica las AU a descodificar o visualizar se almacena en la unidad NAL que tiene un tipo especial, es posible mostrar el tipo de unidad NAL de la unidad NAL. En el ejemplo de la Fig. 25, en la información de soporte HLP, la información relativa a las AU a descodificar o visualizar en el momento de reproducción trucada se incluye en la unidad NAL cuyo tipo de unidad NAL es 0. En ese momento, es posible obtener la información relativa a la reproducción trucada demultiplexando la unidad NAL cuyo tipo de unidad NAL es 0 a partir de los datos de AU del flujo. En el caso donde la información relativa a la reproducción trucada se almacena usando un mensaje SEI, es posible indicar la información para identificar el mensaje SEI.
Igualmente, en cuanto a los requisitos sobre las estructuras de predicción, es posible indicar si uno o más requisitos predeterminados se satisfacen o no, o es posible indicar que los siguientes requisitos respectivos se satisfacen independientemente:
(i)
en cuanto a las AU de una imagen I e imágenes P, el orden de descodificación debería coincidir con el orden de visualización;
(ii)
la AU de una imagen P no se puede referir a la AU de una imagen B;
(iii)
las AU después de la AU superior en un orden de visualización en una unidad de acceso aleatorio se puede referir solamente a las AU incluidas en la unidad de acceso aleatorio; y
(iv)
cada AU se puede referir solamente a las AU colocadas hasta N números antes y después en el orden de descodificación. En este caso, todas las AU se cuentan por completo o las AU se cuentan sobre la base de las AU de referencia, y el valor de N se puede mostrar en la información de soporte HLP.
Obsérvese que, en la AVC de MPEG-4, es posible utilizar, como imágenes de referencia, imágenes sobre las cuales se realiza el procesamiento de filtrado (desbloqueo) para eliminar la distorsión de bloque después de la descodificación, para mejorar la calidad de imagen, y es posible utilizar, como imágenes para visualización, imágenes antes del desbloqueo. En este caso, el aparato de descodificación de imágenes en movimiento necesita mantener los datos de imagen antes y después del desbloqueo. Por lo tanto, es posible almacenar, en la información de soporte HLP, la información que indica si hay una necesidad de mantener las imágenes antes del desbloqueo para el uso de la visualización. La norma AVC de MPEG-4 define el tamaño máximo de una memoria temporal (DPB: Memoria temporal de imágenes descodificadas) necesaria para almacenar las imágenes de referencia o las imágenes a visualizar como los resultados de la descodificación. Por lo tanto, con una memoria temporal DPB que tiene el tamaño máximo o una memoria temporal que tiene el tamaño máximo prescrito por aplicación, es posible indicar si el procesamiento de descodificación se puede realizar sin fallos incluso en el caso de almacenar las imágenes para visualización de las imágenes de referencia. Obsérvese que, con el fin de almacenar las imágenes antes del desbloqueo de las imágenes de referencia, es posible indicar el tamaño de la memoria temporal a asegurar, además del tamaño necesario como un DPB, usando el número de octetos o el número de tramas. Aquí, si se realiza o no el desbloqueo sobre cada imagen se puede saber a partir de la información en el flujo, o la información exterior al flujo tal como la información de gestión. En el caso de obtener la información en el flujo, por ejemplo, se puede obtener a partir de una SEI. Además, en el caso de la descodificación de un flujo AVC de MPEG-4, es posible evaluar si las imágenes, antes del desbloqueo de las imágenes de referencia, se pueden usar para visualizar o no, basándose en el tamaño de la memoria temporal que se puede usar en la unidad de descodificación y la información anteriormente descrita, y entonces es posible determinar cómo visualizar las imágenes.
Obsérvese que toda la información, o una parte de la información, se puede incluir como información de soporte HLP. Igualmente, es posible incluir información necesaria basada en una condición predeterminada, por ejemplo, incluir información en cuanto a la presencia o ausencia de información de reproducción trucada solamente en el caso donde no hay ningún requisito relativo a la estructura de predicción. Igualmente, la información distinta de la información anteriormente descrita se puede incluir en la información de soporte HLP.
La Fig. 24B no indica directamente la información relativa a la estructura de un flujo, pero indica si un flujo satisface los requisitos sobre las estructuras de flujo prescritos por la norma de disco Blu-ray (BD-ROM) o la norma de DVD de Alta definición (HD), que es la norma para almacenar imágenes de alta definición en un DVD. Igualmente, en el caso donde se definen diversos modos como los requisitos de un flujo en una norma de aplicación tal como la norma BD-ROM o similares, la información que indica la modalidad aplicada se puede almacenar. Por ejemplo, se usan las siguientes modalidades: la modalidad 1, que indica que no hay ningún requisito; la modalidad 2, que indica que el flujo tiene una estructura de acceso aleatorio e incluye la información para especificar la AU a descodificar en el momento de reproducción trucada; y similares. Obsérvese que es posible indicar si el flujo satisface los requisitos prescritos en el servicio de comunicación, tal como la descarga o emisión de flujo, o una norma de difusión.
Obsérvese que es posible indicar tanto la información mostrada en la Fig. 24A como la información mostrada en la Fig. 24B. Igualmente, en el caso donde se conoce que el flujo satisface los requisitos en una norma de aplicación específica, es posible almacenar los requisitos en la norma de aplicación convirtiendo la estructura de flujo al formato para la descripción directa, como se muestra en la Fig. 24A, en lugar de indicar si el flujo satisface la norma de aplicación.
Obsérvese que es posible almacenar la información que indica las AU a descodificar o visualizar en el momento de la reproducción trucada como información de gestión. Igualmente, en el caso donde el contenido de la información de soporte HLP se conmuta en un flujo, se puede indicar la información de soporte HLP sección a sección.
La Fig. 26 es un diagrama de flujo que muestra las operaciones del aparato 108 de multiplexado de imágenes en movimiento. En la Etapa 51, la unidad 101 de determinación de atributos de flujo determina la información de atributo TYPE basada en los valores fijados por el usuario o las condiciones predeterminadas. En la Etapa 52, la unidad 102 de codificación codifica un flujo basado en la información de atributo TYPE. En la Etapa 53, la unidad 105 de generación de información de soporte de reproducción genera la información de soporte HLP basada en la información de atributo TYPE. En consecuencia, en la Etapa 54, la unidad 102 de codificación genera la información de acceso sobre la base de una unidad de acceso del flujo codificado, y la unidad 104 de generación de información de gestión general genera la información de gestión INFO añadiendo la información de acceso a la otra información necesaria (información de gestión general). En la Etapa 55, la unidad 106 de multiplexado multiplexa un flujo, la información de soporte HLP y la información de gestión INFO. En la Etapa 56, la unidad 107 de almacenamiento graba los datos multiplexados. Obsérvese que la Etapa 53 se puede realizar antes de la Etapa 52, o después de la Etapa 54.
Obsérvese que la unidad 102 de codificación puede almacenar la información mostrada en la información de soporte HLP en un flujo. En este caso, la información mostrada en la información de soporte HLP se almacena en la unidad NAL para almacenar reproducción trucada. Por ejemplo, en el caso donde las imágenes P no se refieren a las imágenes B, es posible descodificar solamente una imagen I e imágenes P en el momento de la reproducción a velocidad variable. Por lo tanto, se almacena información de indicador que indica si solamente una imagen I e imágenes P se pueden descodificar y visualizar. Igualmente, hay un caso donde algunas AU a descodificar en el momento de la reproducción a velocidad variable no pueden obtener un SPS o un PPS de las AU a las que se deberían referir las AU respectivas. Es el caso donde el PPS al que hace referencia una imagen P se almacena solamente en la AU de una imagen B en el caso de descodificar solamente una imagen e imágenes P. En este caso, hay una necesidad de obtener el PPS necesario para descodificar la imagen P a partir de la AU de una imagen B. Por lo tanto, es posible incluir información de indicador que indica si el SPS o el PPS a los que se refiere cada AU a descodificar en el momento de reproducción a velocidad variable se puede obtener con seguridad a partir de una de las otras AU a descodificar en el momento de reproducción a velocidad variable. Hacerlo de este modo posibilita realizar la operación tal como detectar un SPS o un PPS también a partir de la AU de una imagen no destinada a ser descodificada en el momento de reproducción a velocidad variable solamente en el caso donde no se establece un indicador. Igualmente, en el momento en que se muestra que solamente una imagen I e imágenes P se pueden descodificar y visualizar, es posible ajustar la velocidad de reproducción descodificando también imágenes B, especialmente imágenes B de referencia a las que hacen referencia otras imágenes.
Igualmente, es posible almacenar la información de indicador en el encabezamiento de otra unidad NAL tal como un SPS, un PPS o un segmento, en lugar de usar cualquier unidad NAL para almacenar reproducción trucada. Por ejemplo, en el caso donde un SPS al que hace referencia una AU que constituye una unidad RAU de acceso aleatorio se almacena en la AU superior en la unidad RAU de acceso aleatorio, el campo nal_ref_idc de la unidad NAL de un SPS puede indicar la información de indicador. Como se define que el valor de nal_ref_idc es 1 o más en la unidad NAL de un SPS, es posible fijar siempre el bit de orden superior en 1 e indicar la información de indicador mediante el bit de orden inferior.
Obsérvese que el contenido de la información de soporte HLP se puede almacenar en un flujo o en información de gestión, o ambos. Por ejemplo, el contenido se puede mostrar en información de gestión en el caso donde el contenido de la información de soporte HLP se fija en un flujo, mientras que el contenido se puede mostrar en un flujo en el caso donde el contenido es variable. Igualmente es posible almacenar la información de indicador que indica si la información de soporte HLP se fija o no en la información de gestión. Igualmente, en el caso donde la información de soporte HLP está predeterminada en una norma de aplicación tal como un BD-ROM o una memoria RAM, o en el caso donde la información de soporte HLP se proporciona por separado por comunicación o difusión, la información de soporte HLP no puede almacenarse.
Aparato de descodificación de imágenes en movimiento
La Fig. 27 es un diagrama en bloques del aparato 200 de descodificación de imágenes en movimiento que realiza el procedimiento de descodificación de imágenes en movimiento de la presente invención. Este aparato 200 de descodificación de imágenes en movimiento reproduce un flujo codificado mostrado en las Fig. 8A y 8B a 20. Puede realizar no solamente la reproducción normal, sino también la reproducción trucada, tal como la reproducción a saltos, la reproducción a velocidad variable y la reproducción inversa. El aparato 200 de descodificación de imágenes en movimiento incluye, además, una unidad de extracción de flujo EXT y una unidad AUsel de selección de las AU a descodificar, además de las unidades de un aparato 2 de descodificación convencional mostrado en la Fig. 5. Obsérvese que a las unidades de procesamiento que realizan las mismas operaciones que las unidades de procesamiento respectivas del aparato 2 de descodificación convencional, mostrado en el diagrama en bloques de la Fig. 5, se les asignan los mismos números de referencia, y se omitirán sus descripciones.
La unidad AUsel de selección de las AU a descodificar determina las AU necesarias a descodificar basándose en la información GrpInf de reproducción trucada descodificada en la unidad VLD de descodificación de longitud variable, según una instrucción de reproducción trucada introducida desde el exterior. Aquí, la instrucción que indica reproducción trucada se introduce desde la unidad AUsel de selección de las AU a descodificar. Además, la unidad AUsel de selección de las AU a descodificar notifica a la unidad EXT de extracción de flujo sobre DecAU, que es la información que indica las AU determinadas como las AU necesarias a descodificar. La unidad EXT de extracción de flujo extrae solamente el flujo correspondiente a las AU que son evaluadas como las AU necesarias a descodificar por la unidad AUsel de selección de las AU a descodificar, y a continuación transmite el flujo a la unidad VLD de descodificación de longitud variable.
La Fig. 28 es un diagrama de flujo de la manera en que el aparato 200 de descodificación de imágenes en movimiento (principalmente la unidad AUsel de selección de las AU a descodificar) mostrado en la Fig. 27 realiza el procedimiento de descodificación de un flujo que incluye información de reproducción trucada en el momento de realizar la reproducción trucada.
En primer lugar, en la etapa 20, la unidad AUsel de selección de las AU a descodificar evalúa si la AU es la AU superior de una unidad RAU de acceso aleatorio detectando un SPS, o similar, en el flujo. En el caso donde la AU es la AU superior, pasa a la Etapa 21, mientras que en el caso donde la AU no es la AU superior, pasa a la Etapa 22. Aquí, la posición de inicio de la unidad RAU de acceso aleatorio se puede obtener a partir de información de gestión, tal como mapa temporal. Especialmente en el caso donde se determina la posición de inicio de reproducción en el momento de la reproducción por saltos, o solamente se selecciona la imagen superior de la unidad RAU de acceso aleatorio y se realiza la reproducción a alta velocidad sobre la imagen superior seleccionada, es posible determinar la posición de inicio de la unidad RAU de acceso aleatorio que se refiere al mapa temporal. En la Etapa 21, la unidad AUsel de selección de las AU a descodificar obtiene la información de reproducción trucada a partir de los datos de AU, analiza los datos de AU y determina las AU a descodificar antes de pasar a la Etapa 22. En la Etapa 22, la unidad AUsel de selección de las AU a descodificar evalúa si la AU es la AU que se determina en la Etapa 21 como la AU a descodificar. En el caso donde es la AU determinada, el aparato 200 de descodificación de imágenes en movimiento descodifica la AU en la Etapa 23, mientras que en el caso donde no es la AU determinada, pasa a la Etapa 24. En la Etapa 24, el aparato 200 de descodificación de imágenes en movimiento evalúa si queda alguna AU a descodificar. En el caso donde hay una AU, el aparato 200 de descodificación de imágenes en movimiento repite el procesamiento de la Etapa 20, y las siguientes etapas, mientras que en el caso donde no hay AU, se completa el procesamiento. Obsérvese que es posible omitir el proceso de la Etapa 21 y la Etapa 22, u omitir el procesamiento de determinación en la Etapa 21, y enviar la información que indica que todas las AU se descodifican en el momento de la reproducción normal, donde todas las AU se descodifican y visualizan en orden.
La Fig. 29 es un diagrama de flujo que indica el procesamiento (el procesamiento por la unidad AUsel de selección de las AU a descodificar) en la Etapa 21. En primer lugar, la unidad AUsel de selección de las AU a descodificar detecta la posición de inicio de una unidad NAL que constituye una AU, buscando en los datos de AU un prefijo de código de inicio, empezando con el octeto superior en la Etapa 30, y pasa a la Etapa 31. Obsérvese que puede buscar un prefijo de código de inicio a partir, no del octeto superior de los datos de AU, sino otra posición, tal como la posición final de un Delimitador de Unidad de Acceso. En la Etapa 31, la unidad AUsel de selección de las AU a descodificar obtiene el tipo de unidad NAL de una unidad NAL, y pasa a la Etapa 32. En la Etapa 32, la unidad AUsel de selección de las AU a descodificar evalúa si el tipo de unidad NAL obtenido en la Etapa 31 es el tipo de unidad NAL para almacenar información de reproducción trucada. En el caso donde la información de reproducción trucada está almacenada, pasa a la Etapa 33, mientras que en el caso donde la información de reproducción trucada no está almacenada, repite el procesamiento de la Etapa 30 y las siguientes etapas. Aquí, en el caso donde la información de reproducción trucada está almacenada en un mensaje SEI, la unidad AUsel de selección de las AU a descodificar obtiene la unidad NAL de una SEI en primer lugar, y evalúa, además, si el mensaje SEI para almacenar la información de reproducción trucada se incluye o no en la unidad NAL. En la Etapa 33, la unidad AUsel de selección de las AU a descodificar obtiene información de reproducción trucada, y pasa a la Etapa 34. En la Etapa 34, la unidad AUsel de selección de las AU a descodificar determina las imágenes necesarias a descodificar en el momento de realizar una operación de reproducción trucada especificada. Por ejemplo, siempre que se especifique la reproducción a doble velocidad. En el caso donde la información de reproducción trucada indica que es posible realizar la reproducción a doble velocidad descodificando y reproduciendo solamente una imagen I, imágenes P e imágenes B de referencia, se determina que estos tres tipos de imágenes se descodifican y reproducen. Obsérvese que, en el caso donde la información de reproducción trucada no se detecta en la imagen superior de la unidad RAU de acceso aleatorio en el procesamiento desde la Etapa 30 a la Etapa 32, las imágenes necesarias a descodificar en orden para realizar la operación de reproducción trucada se determinan según un procedimiento predeterminado. Como ejemplo, es posible evaluar si la imagen es una imagen de referencia o no remitiéndose al campo que indica el tipo de imagen de una imagen en un Delimitador de Unidad de Acceso, o comprobando el nal_ref_idc del encabezamiento de la unidad NAL. Por ejemplo, es posible distinguir imágenes B de referencia de imágenes B de no-referencia remitiéndose tanto al campo que indica los tipos de imágenes como a nal_ref_idc.
La Fig. 30 es un diagrama de flujo que indica el procesamiento (el procesamiento por parte de la unidad AUsel de selección de las AU a descodificar) en el caso donde todas las AU a descodificar no se visualizan siempre. A las etapas para realizar el mismo procesamiento que las etapas en el diagrama de flujo de la Fig. 28 se les asignan los mismos números de referencia, y se omitirá su descripción. En la Etapa 41, la unidad AUsel de selección de las AU a descodificar obtiene y analiza información de reproducción trucada, determina las AU a descodificar y las AU a visualizar en una operación de reproducción trucada especificada, y pasa a la Etapa 42. En la Etapa 42, la unidad AUsel de selección de las AU a descodificar evalúa si las AU a descodificar coinciden completamente con las AU a visualizar. En el caso donde hay una coincidencia completa, pasa a la Etapa 22, mientras que en el caso donde no hay coincidencia completa, pasa a la Etapa 43. En la Etapa 43, la unidad AUsel de selección de las AU a descodificar envía información de la lista de las AU a visualizar, y pasa a la Etapa 22. La información de lista de las AU enviadas se usa en una etapa (no mostrada en una figura) para determinar las AU a visualizar entre las AU descodificadas.
Obsérvese que, en la AVC de MPEG-4, es posible usar, como imágenes de referencia, imágenes sobre las cuales se realiza el procesamiento de filtrado (desbloqueo) para eliminar la distorsión de bloques después de la descodificación, a fin de mejorar la calidad de imagen, y es posible utilizar, como imágenes de visualización, imágenes antes del desbloqueo. En este caso, el aparato 200 de descodificación de imágenes en movimiento necesita mantener los datos de imagen antes y después del desbloqueo. Aquí, a condición de que el aparato 200 de descodificación de imágenes en movimiento tenga una memoria que pueda almacenar datos pos-descodificación equivalentes a cuatro imágenes, en el caso donde almacena los datos de imagen antes y después del desbloqueo en la memoria, la memoria necesita almacenar datos equivalentes a dos imágenes, a fin de mantener imágenes antes del desbloqueo de las imágenes de referencia. Sin embargo, como se ha descrito anteriormente, es deseable que se puedan contener en la memoria tantas imágenes como sea posible en el momento de la reproducción inversa. A condición de que el aparato 200 de descodificación de imágenes en movimiento utilice las imágenes después del desbloqueo también para el uso de visualización, puede contener datos de cuatro imágenes en una memoria porque no se necesita almacenar imágenes antes del desbloqueo. Por lo tanto, visualizar imágenes antes del desbloqueo, a fin de mejorar la calidad de imagen en el momento de la reproducción en una dirección normal y visualizar imágenes después del desbloqueo en el momento de la reproducción inversa, hace que sea posible mantener más imágenes en una memoria, y reducir la magnitud del procesamiento en el momento de la reproducción inversa. Por ejemplo, en el ejemplo de las Fig. 15A a 15C, que muestran una lista de las AU de una imagen I e imágenes P como información de reproducción trucada, todos los datos de cuatro imágenes se pueden mantener en una memoria en el momento de la reproducción inversa, mientras que los siguientes conjuntos de dos imágenes, que se seleccionan arbitrariamente entre I0, P3, P6 y P9, se pueden mantener en la memoria al mismo tiempo en el momento de la reproducción en una dirección normal: 10 y P3; P3 y P6; y P6 y P9.
Ejemplo de un formato de grabación de reproducción trucada en un disco óptico
Una función de reproducción trucada es especialmente importante en un aparato de disco óptico que reproduce medios de paquetes. Aquí, se describirá un ejemplo de grabación de información de reproducción trucada descrita anteriormente en un disco Blu-ray (BD) que es un disco óptico de la próxima generación.
En primer lugar, se describirá un formato de grabación de un BD-ROM.
La Fig. 31 es un diagrama que indica la estructura del BD-ROM, especialmente las estructuras de un disco BD 114, que es un soporte en disco, y los datos 111, 112 y 113 almacenados en el disco. Los datos almacenados en el disco BD 114 incluye datos de VA 113, información 112 de gestión de BD, tal como información de gestión relativa a los datos de VA y una secuencia de reproducción de VA, y un programa 111 de reproducción de BD que realiza la interactividad. Aquí, por motivos de conveniencia, la descripción del disco BD se hará enfocada sobre la aplicación de VA para reproducir contenidos de audio y visuales de películas, pero se puede hacer una descripción similar enfocada en otro uso.
La Fig. 32 es un diagrama que muestra la estructura de un fichero de directorio de datos lógicos almacenados en el disco BD anteriormente descrito. Un disco BD tiene un área de grabación desde su radio más interior a su radio más exterior como, por ejemplo un DVD, un CD y similares, y tiene espacio de direcciones lógicas para almacenar datos lógicos entre la entrada por lectura en el radio más interno y la salida por lectura en el radio exterior. Igualmente, en el interior de la entrada por lectura, hay un área especial que se puede leer solamente mediante un controlador denominado Área de Corte de Ráfaga (BCA). Como este área no se puede leer a partir de la aplicación, se puede usar, por ejemplo, para una técnica de protección de propiedad intelectual.
La información del sistema de ficheros (volumen) se almacena en la parte superior del espacio de direcciones lógicas, y datos de aplicación tales como datos de vídeo se almacenan también ahí. Como se ha descrito en la técnica anterior, un sistema de ficheros es, por ejemplo, el UDF o la ISO9660, y permite la lectura de los datos lógicos almacenados usando una estructura de directorio o una estructura de ficheros como en el caso de un ordenador personal normal.
En esta realización, como la estructura de directorio y la estructura de ficheros sobre el disco BD, se coloca el directorio BDVIDEO inmediatamente por debajo de un directorio raíz (ROOT). Este directorio es un directorio que almacena datos tales como contenido de VA o información de gestión (101, 102 y 103, que se describen en la Fig. 32) que se gestiona en el BD.
Por debajo del directorio BDVIDEO, se graban los siguientes siete ficheros.
(i)
BD. INFO (el nombre de fichero es fijo) que es un fragmento de la "información de gestión del BD" y es un fichero que almacena la información relativa a todo el disco BD. El reproductor de BD lee en primer lugar este fichero.
(ii)
BD.PROG (el nombre de fichero es fijo) que es uno de los "programas de reproducción de BD" y es un fichero que almacena la información de control de reproducción relativa a todo el disco BD.
(iii)
XXX. PL ("XXX" es variable, y la extensión "PL" es fija) que es una elemento de "información de gestión de BD" y es un fichero que almacena la información de lista de reproducción, que es un guión (secuencia de reproducción). Cada lista de reproducción tiene un fichero.
(iv)
XXX. PROG ("XXX" es variable, y la extensión "PROGR" es fija) que es uno de los "programas de reproducción de BD" y es un fichero que almacena la información de control de reproducción preparada sobre la base de listas de reproducción. La lista de reproducción correspondiente se identifica sobre la base de un nombre de cuerpo de fichero (basado en la coincidencia de "XXX").
(v)
YYY.VOB ("YYY" es variable, y la extensión "VOB" es fija) que es uno de los "datos de VA" y es un fichero que almacena el VOB (lo mismo que el VOB descrito en la técnica anterior). Cada VOB tiene un fichero.
(vi)
YYY.VOBI ("YYY" es variable, y la extensión "VOBI" es fija) que es un elemento de la "información de gestión de BD" y es fichero que almacena la información de gestión de flujo relativa al VOB que son los datos de VA. La lista de reproducción correspondiente se identifica basándose en un nombre de cuerpo de fichero (basado en una coincidencia de "YYY").
(vii)
ZZZ.PNG ("ZZZ" es variable, y la extensión "PNG" es fija) que es uno de los "datos de VA" y es un fichero que almacena datos de imagen PNG (que es un formato de imagen normalizado por el W3C y denominado "ping") para constituir subtítulos y menús. Cada imagen PNG tiene un fichero.
La estructura de datos de navegación de BD (información de gestión de BD) se describirá con referencia a las Fig. 33 a 38.
La Fig. 33 es un diagrama que muestra la estructura interna de un fichero de información de gestión de VOB ("YYY.VOBI"). La información de gestión de VOB tiene la información del atributo de flujo (Atributo) del VOB y un mapa temporal (TMAP). El atributo de flujo tiene atributo de vídeo (Vídeo) y atributo de audio (Audio#0 a Audio#m) por separado. Especialmente en el caso de flujo de audio, como un VOB tiene diversos flujos de audio al mismo tiempo, la presencia o ausencia de un campo de datos se indica por el número (Número) de flujos de audio.
Los siguientes son atributos de vídeo (Vídeo) almacenados en campos respectivamente, y los valores que los campos respectivos pueden tener:
(i)
formato de compresión (Codificación): MPEG-1; MPEG-2; MPEG-4; y AVC (Codificación de vídeo avanzada) de MPEG-4.
(ii)
Resolución (Resolución): 1920 x 1080; 1440x1080; 1280x720; 720x480, y 720x565.
(iii)
relación de aspecto (Aspecto): 4 a 3; y 16 a 9.
(iv)
frecuencia de trama (Frecuenciatrama): 60; 59,94 (60/1,001), 50; 30; 29,97 (30/1,001), 25; 24; y 23,976 (24/1,001).
Los siguientes son atributos de audio (Audio) almacenados en campos respectivamente, y los valores que los respectivos campos pueden tener.
(i)
formato de compresión (Codificación): AC3; MPEG-1; MPEG-2; y LPCM.
(ii)
el número de canales (Ch): 1 a 8
(iii)
atributo de idioma (Idioma):
\vskip1.000000\baselineskip
El mapa temporal (TMAP) es una tabla para almacenar la información sobre para cada VOBU, y tiene el número de las VOBU que tiene el VOB y los fragmentos respectivos de información de VOBU (VOBU#1 a VOBU#n). Los fragmentos respectivos de información de VOBU incluyen I_inicio, que es la dirección (la dirección de inicio de una imagen I) del paquete TS superior de una VOBU y una dirección de desplazamiento (I_fin) hasta la dirección final de la imagen I, y el tiempo de inicio de reproducción (PTS) de la imagen I.
La Fig. 34 es un diagrama que ilustra los detalles de la información de VOBU. Como es ampliamente conocido, ya que se puede realizar la compresión de velocidad de bits variable en el flujo de video MPEG, a fin de grabar el flujo de video en alta calidad, no hay ninguna proporcionalidad entre el tiempo de reproducción y el tamaño de los datos. Por otra parte, como se realiza una compresión de velocidad de bits fija en AC3, que es una norma de compresión de audio, la relación entre el tiempo y la dirección se puede obtener a partir de una expresión primaria. Sin embargo, en el caso de datos de vídeo MPEG, cada trama tiene un tiempo de visualización fijo, por ejemplo, una trama tiene un tiempo de visualización de 1/29,97 segundos en el caso de NTSC, pero el tamaño de los datos después de comprimir cada trama cambia en gran medida, según la característica de la imagen, o del tipo de imagen usado en la compresión, tal como una imagen I, una imagen P o una imagen B. Por lo tanto, en el caso de un flujo de vídeo MPEG, es imposible representar la relación entre el tiempo y la dirección usando una expresión primaria.
Como se puede esperar, es imposible representar la relación entre el tiempo y el tamaño de los datos usando una expresión primaria en un flujo del sistema MPEG donde los datos de vídeo MPEG se multiplexan, es decir, un VOB. Por lo tanto, un mapa temporal (TMAP) asocia el tiempo a la dirección en un VOB.
De esta manera, en el caso donde se da información de tiempo, la VOBU a la cual pertenece el tiempo se busca en primer lugar (siguiendo los PTS de la VOBU en orden), se salta al PTS inmediatamente antes de ese tiempo en la VOBU que un TMAP tiene (la dirección especificada por I_inicio), la descodificación se inicia con la imagen I superior de la VOBU, y la visualización se inicia con la imagen correspondiente a ese tiempo.
A continuación, la estructura interna de una información de lista de reproducción ("XXX.PL") se describirá con referencia a la Fig. 35. La información de lista de reproducción incluye una lista de celdas (ListaCeldas) y una lista de sucesos (ListaSucesos).
La lista de celdas (ListaCeldas) es una secuencia de celdas de reproducción en la lista de reproducción; y las celdas se reproducen en el orden de descripción indicado en esta lista. El contenido de la lista de celdas (ListaCeldas) es el número de celdas (Número) y la información de cada celda (Celda#1 a Celda#n).
La información de celda (Celda#) tiene un número de fichero de VOB (NombreVOB), tiempo de inicio (In) y tiempo final (Sal) en el VOB, y subtítulos (TablaSubtítulos). El tiempo de inicio (In) y el tiempo final (Sal) se representan como un número de trama en cada VOB. Es posible obtener la dirección de los datos de VOB necesarios para reproducir usando el mapa temporal (TMAP) anteriormente descrito.
La tabla de subtítulos (TablaSubtítulos) es una tabla que almacena información de subtítulos que se reproduce sincronizadamente con el VOB. Como en el caso del audio, se incluyen diversos idiomas en los subtítulos. La primera información de la tabla de subtítulo (TablaSubtítulos) incluye el número de idiomas (Número) y las siguientes tablas (Idioma#1 a Idioma#k) preparadas sobre una base de un idioma.
Cada tabla de idioma (Idioma#) incluye información de idioma (Idioma), el número (Número) de fragmentos de información de subtítulos de los subtítulos a visualizar por separado, e información de subtítulos (Discurso#1 a Discurso#j) de subtítulos a visualizar por separado. La información de subtítulos (Discurso#) incluye un nombre de fichero de datos de imagen (Nombre), el tiempo de inicio de visualización de subtítulo (In), el tiempo de finalización de visualización de subtítulo (Sal) y una posición de visualización de subtítulo (Posición).
La lista de sucesos (ListaSucesos) es una tabla que define cada suceso que se produce en la lista de reproducción. La lista de sucesos incluye el número de sucesos (Número) y los sucesos respectivos (Suceso#1 a Suceso#m). Cada suceso (Suceso#) incluye un tipo de suceso (Tipo), un identificador de suceso (ID), un tiempo de ocurrencia del suceso (Tiempo) y una duración del suceso (Duración).
La Fig. 36 es una tabla de gestión de sucesos ("XXX. PROG") que tiene un gestor de sucesos (que es un suceso temporal y un suceso para la selección de menús) preparado sobre la base de una lista de reproducción. La tabla de gestión de sucesos incluye el número de gestores/programas de sucesos definidos (Número) y los respectivos gestores/programas de sucesos (Programa#1 a Programa#n). El contenido de cada gestor/programa de sucesos (Programa#) es la definición del inicio de un gestor de suceso (etiqueta event_handler) y el identificador del gestor de sucesos (ID) que se empareja con el identificador de suceso previamente descrito, y a continuación del mismo, el programa descrito en "{}" que sigue a la palabra Function (Función). El suceso (Suceso#1 a Suceso#m) almacenado en la lista de sucesos (ListaSucesos) del "XXX.PL" previamente descrito se especifica usando un identificador (ID) del gestor de sucesos de "XXX. PROG".
A continuación, la estructura interna de la información relativa a todo el disco BD ("BD.INFO") se describirá con referencia a la Fig. 37. La información relativa a todo el disco BD incluye una lista de títulos (ListaTítulos) y una tabla de sucesos para sucesos globales (ListaSucesos).
La lista de títulos (ListaTítulos) incluye el número de títulos de un disco (Número) y fragmentos de información de título (Título#1 a Título#3) que siguen al número de títulos. Los fragmentos respectivos de información de título (Título#) incluyen una tabla de lista de reproducción en el título (TablaPL) y una lista de capítulos en el título (ListaCapítulos). La tabla de lista de reproducción (TablaPL) incluye el número de listas de reproducción en el título (Número) y nombres de listas de reproducción (Nombre) que son los nombres de ficheros de listas de reproducción. La lista de capítulos (ListaCapítulos) incluye el número de capítulos incluidos en el título (Número) y fragmentos de información de capítulo (Capítulo#1 a Capítulo#n). Cada fragmento de información de capítulo (Capítulo#) incluye una tabla de celdas (TablaCeldas) incluida en el capítulo, y la tabla de celdas (TablaCeldas) incluye el número de celdas (Número) y fragmentos de información de entrada de celdas (EntradaCelda#1 a EntradaCelda#k). La información de entrada de celda (EntradaCelda#) incluye el nombre de lista de reproducción que incluye la celda y un número de celdas en la lista de reproducción.
La lista de sucesos (ListaSucesos) incluye el número de sucesos globales (Número) y fragmentos de información de sucesos globales. Debería observarse que el suceso global a definir en primer lugar se denomina primer suceso (PrimerSuceso), y es el suceso invocado en primer lugar después de la inserción del disco BD en el reproductor. La información de suceso para el sucesos globales tiene solamente un tipo de suceso (Tipo) y un identificador de suceso (ID).
La Fig. 38 es una tabla ("BD.PROG") de un programa de un gestor de sucesos globales. El contenido de esta tabla es el mismo que el contenido de la tabla de gestión de sucesos descrita en la Fig. 36.
En el caso de almacenar la información de reproducción trucada anteriormente descrita en el formato BD-ROM descrito hasta ahora, se considera que una VOBU incluye una o más unidades RAU de acceso aleatorio, y la información de reproducción trucada se incluye en la AU superior de la VOBU. Obsérvese que, en la AVC de MPEG-4, se incluye una unidad NAL donde se almacena información de reproducción trucada.
Obsérvese que la información de reproducción trucada se puede almacenar en la información de gestión del BD. Por ejemplo, es posible almacenar información de reproducción trucada preparada en VOBU a VOBU, extendiendo el mapa temporal de la información de gestión del VOB. Igualmente, es posible definir un nuevo mapa para almacenar la información de reproducción trucada.
Igualmente, es posible almacenar la información de reproducción trucada bien en la VOBU o bien en la información de gestión del BD.
Igualmente es posible almacenar solamente el valor por omisión de la información de reproducción trucada en la información de gestión del BD, y solamente en el caso donde la información de reproducción trucada, en cuanto a la VOBU, es distinta al valor por omisión, es posible almacenar la información de reproducción trucada en la VOBU.
Igualmente, es posible almacenar un conjunto de uno o más fragmentos de información de reproducción trucada en la información de gestión del BD como la información que es común entre los flujos. La VOBU se puede referir a un fragmento de información de reproducción trucada entre los fragmentos de información de reproducción trucada almacenada en la información de gestión del BD. En este caso, la información del índice de la información de reproducción trucada objeto de referencia por la VOBU se almacena en la información de gestión de una unidad VOBU o en la VOBU.
Reproductor para reproducir discos ópticos
La Fig. 39 es un diagrama en bloques que muestra en líneas generales la estructura funcional de un reproductor que reproduce un disco BD mostrado en la Fig. 31, y similares. Los datos sobre el disco BD 201 se leen mediante un reproductor óptico 202. Los datos de lectura se transmiten a una memoria exclusiva que depende de los tipos de los datos respectivos. El programa de reproducción de BD (el contenido de "BD.PROG" o "XXX.PROG") se transmite a una memoria 203 de programa. Igualmente, la información de gestión del BD ("BD.INFO", "XXX.PL" o "YYY.VOBI") se transmite a una memoria 204 de información de gestión. Igualmente los datos AV ("YYY.VOB" o "ZZZ.PNG") se transmiten a una memoria AV 205.
El programa de reproducción de BD grabado en la memoria 203 de programa se procesa mediante una unidad 206 de procesamiento de programas. Igualmente, la información de gestión del BD grabada en la memoria 204 de información de gestión se procesa mediante la unidad 207 de procesamiento de información de gestión. Igualmente, los datos AV grabados en la memoria AV 205 se procesan mediante una unidad 208 de procesamiento de presenta-
ción.
La unidad 206 de procesamiento de programa recibe la información de listas de reproducción a reproducir por la unidad 207 de procesamiento de información de gestión y la información de sucesos, tal como la programación de la ejecución del programa, y realiza el procesamiento del programa. Igualmente, es posible cambiar dinámicamente las listas de reproducción a reproducir por el programa. Esto se puede llevar a cabo enviando una instrucción de reproducción de las listas de reproducción a la unidad 207 de procesamiento de información de gestión. La unidad 206 de procesamiento de programa recibe un suceso de un usuario; dicho de otro modo, recibe una petición a través de un controlador remoto, y en el caso donde hay un programa que corresponde al suceso de usuario, ejecuta el programa.
La unidad 207 de procesamiento de información de gestión recibe una instrucción de la unidad 206 de procesamiento de programa, analiza las listas de reproducción y la información de gestión de los VOB que corresponden a las listas de reproducción, e instruye a la unidad 208 de procesamiento de presentación para reproducir los datos AV deseados. Igualmente, la unidad 207 de procesamiento de información de gestión recibe la información de tiempo estándar desde la unidad 208 de procesamiento de presentación, instruye a la unidad 208 de procesamiento de presentación para detener la reproducción de los datos AV basándose en la información de tiempo. Igualmente, la unidad 207 de procesamiento de información de gestión genera un suceso para notificar a la unidad 206 de procesamiento de programas la programación de la ejecución del programa.
La unidad 208 de procesamiento de presentación tiene un descodificador que puede procesar vídeo, audio y subtítulos/imágenes (imágenes fijas), respectivamente. Descodifica y produce los datos AV según una instrucción de la unidad 207 de procesamiento de información de gestión. En el caso de datos de vídeo, y subtítulos/imágenes, se descodifican y a continuación se representan en los planos exclusivos respectivos, es decir, el plano 210 de vídeo y el plano 209 de imagen. Después de esto, la unidad 211 de procesamiento de síntesis lleva a cabo el procesamiento de síntesis sobre el vídeo, y envía el vídeo a un dispositivo de visualización tal como un televisor.
En el momento de la reproducción trucada, tal como la reproducción a saltos, la reproducción a velocidad variable y la reproducción inversa, la unidad 208 de procesamiento de presentación interpreta la operación de reproducción trucada solicitada por el usuario, y notifica a la unidad 207 de procesamiento de información de gestión de la información tal como la velocidad de reproducción. La unidad 207 de procesamiento de información de gestión analiza la información de reproducción trucada almacenada en la AU superior de la VOBU y determina las AU a descodificar y visualizar de manera que la operación de reproducción trucada especificada por el usuario se pueda realizar de manera segura. Obsérvese que la unidad 207 de procesamiento de información de gestión puede obtener la información de reproducción trucada, enviarla a la unidad 208 de procesamiento de presentación y determinar las AU a descodificar y las AU a visualizar en la unidad 208 de procesamiento de presentación.
Obsérvese que un sistema informático autónomo puede ejecutar fácilmente el procesamiento mostrado en esta realización, grabando el programa para realizar el procedimiento de codificación de imágenes en movimiento y el procedimiento de descodificación de imágenes en movimiento mostrados en esta realización en un soporte de grabación tal como un disco flexible.
Las Fig. 40A a 40C son ilustraciones del modo en que el sistema informático ejecuta el procedimiento de codificación de imágenes en movimiento y el procedimiento de descodificación de imágenes en movimiento de esta realización usando un programa grabado en un soporte de grabación tal como un disco flexible.
La Fig. 40A muestra un ejemplo de un formato físico de un disco flexible como un soporte de grabación. La Fig. 40B muestra un disco flexible y la vista frontal y la vista en sección transversal del aspecto del disco flexible. Un disco flexible (FD) va contenido en una carcasa F, una pluralidad de pistas (Tr) se forman concéntricamente sobre la superficie del disco desde el radio exterior hacia el radio interior del disco, y cada pista se divide en 16 sectores (Se) en la dirección angular. Por lo tanto, en el caso del disco flexible que almacena el programa anteriormente descrito, el programa se graba en un área asignada al mismo sobre el disco flexible (FD).
Igualmente, la Fig. 40C muestra la estructura para grabar y reproducir el programa sobre el disco flexible. En el caso de grabar el programa anterior para realizar el procedimiento de codificación de imágenes en movimiento y el procedimiento de descodificación de imágenes en movimiento sobre el disco flexible FD, un sistema informático Cs escribe el programa sobre el disco flexible a través de una unidad de disco flexible. Igualmente, en el caso de construir el anterior aparato de codificación de imágenes en movimiento y el anterior aparato de descodificación de imágenes en movimiento para realizar el procedimiento de codificación de imágenes en movimiento y el procedimiento de descodificación de imágenes en movimiento usando el programa en el disco flexible, el programa se lee desde el disco flexible a través de la unidad de disco flexible, y se transmite al sistema informático.
Obsérvese que la anterior descripción se ha realizado usando un disco flexible como soporte de grabación, pero el programa se puede grabar sobre un disco óptico. Igualmente, un soporte de grabación no se limita a esto, y se puede usar otro soporte de grabación tal como una tarjeta IC o un casete de memoria ROM mientras pueda grabar el programa.
Hasta este punto, el aparato de generación de flujo de imágenes en movimiento, el aparato de codificación de imágenes en movimiento, el aparato de multiplexado de imágenes en movimiento y el aparato de descodificación de imágenes en movimiento de la presente invención se han descrito basándose en la realización, pero la presente invención no se limita a esta realización. Por ejemplo, la presente invención incluye lo siguiente en esta realización: (i) un aparato de generación de flujo de imágenes en movimiento; un aparato de grabación de disco óptico que tiene uno entre un aparato de codificación de imágenes en movimiento y un aparato de descodificación de imágenes en movimiento; un aparato de envío de imágenes en movimiento; un aparato de transmisión de difusión de televisión digital; un servidor Web; un aparato de comunicación; un terminal de información móvil; y similares; y (ii) un aparato de recepción de imágenes en movimiento que tiene un aparato de descodificación de imágenes en movimiento; un aparato de recepción de difusión de televisión digital; un aparato de comunicación; un terminal de información móvil; y similares.
Obsérvese que los bloques funcionales respectivos mostrados en las Fig. 21, 23, 27 y 39 se realizan típicamente como un LSI, que es un circuito de integración a gran escala. Cada uno de los bloques funcionales se puede fabricar en un único chip, o bien una parte de, o todos, los bloques funcionales pueden integrarse en un único chip (por ejemplo, los bloques funcionales salvo una memoria se pueden fabricar en un solo chip). El circuito integrado se denomina LSI aquí, pero se puede denominar IC, sistema LSI, super LSI o ultra LSI, según el nivel de integración. Igualmente, el procedimiento de fabricación de los mismos en un circuito integrado no se limita al procedimiento de su fabricación en un LSI, se puede realizar mediante un circuito exclusivo o un procesador genérico. Igualmente, es posible usar (i) un procesador reconfigurable donde la conexión o la configuración de células de circuito se puede reconfigurar o (ii) un FPGA programable (Formación de compuertas programables en el terreno), después de fabricarlos en un LSI. Además, en el caso donde la técnica de su fabricación en un circuito integrado, en lugar de su fabricación en un LSI, aparece cuando se desarrolla, además, la técnica de semiconductores o aparece cualquier técnica derivada, a su debido tiempo se pueden fabricar bloques funcionales en un circuito integrado que usa tal nueva técnica. La aplicación de biotécnica es probable. Igualmente, entre los bloques funcionales respectivos, una unidad de almacenamiento (una memoria de imagen) en la cual se almacenan los datos de imagen a codificar o descodificar, se puede configurar por separado en lugar de incluirse en un único chip.
Aplicabilidad industrial
La presente invención se puede aplicar como: un aparato de generación de flujo de imágenes en movimiento que genera una imagen en movimiento a reproducir en reproducción trucada; un aparato de codificación de imágenes en movimiento que genera, por codificación, una imagen en movimiento a reproducir en "reproducción trucada"; un aparato de multiplexado de imágenes en movimiento que genera, por multiplexado de paquetes, una imagen en movimiento a reproducir en reproducción trucada; y un aparato de descodificación de imágenes en movimiento que reproduce la imagen en movimiento en reproducción trucada; y especialmente, como un aparato para construir el sistema para reproducir un flujo AVC de MPEG-4 que usa un modo de reproducción trucada, tal como la reproducción a velocidad variable y la reproducción inversa, siendo tal aparato, por ejemplo, un aparato relacionado con un disco óptico sobre el cual se enfoca generalmente su función de reproducción trucada.

Claims (7)

1. Un aparato de generación de flujo de imágenes en movimiento que genera un flujo que incluye imágenes que constituyen una imagen en movimiento, comprendiendo dicho aparato de generación de flujo de imágenes en movimiento:
una primera unidad de codificación utilizable para codificar una primera información suplementaria incluida en una unidad de acceso aleatorio, incluyendo la unidad de acceso aleatorio un grupo de imágenes cuya primera imagen es una imagen I, (i) incluyendo la primera información suplementaria fragmentos plurales de información de tipos de imagen, que indica tipos de las imágenes incluidas en el grupo, y (ii) utilizándose cuando las imágenes incluidas en la unidad de acceso aleatorio se reproducen en reproducción trucada, y estando los fragmentos plurales de información de tipos de imagen colocados en un orden que corresponde a un orden de descodificación del grupo de imágenes;
una segunda unidad de codificación utilizable para codificar una segunda información suplementaria incluida en la unidad de acceso aleatorio, (i) incluyendo la segunda información suplementaria fragmentos plurales de información de estructuras de imagen, que indica estructuras de campos o tramas de las imágenes incluidas en el grupo, y (ii) utilizándose cuando las imágenes incluidas en la unidad de acceso aleatorio se reproducen en reproducción trucada, y estando los fragmentos plurales de información de estructuras de imagen colocados en el orden que corresponde al orden de descodificación del grupo de imágenes; y
una unidad de generación utilizable para generar un flujo de imágenes en movimiento, añadiendo la información suplementaria codificada primera y segunda a una imagen codificada correspondiente a la primera imagen I que es una imagen inicial de la unidad de acceso aleatorio.
2. Un procedimiento de generación de flujo de imágenes en movimiento para generar un flujo que incluye imágenes que constituyen una imagen en movimiento, comprendiendo dicho procedimiento de generación de flujo de imágenes en movimiento:
una primera etapa de codificación de la primera información suplementaria incluida en una unidad de acceso aleatorio, incluyendo la unidad de acceso aleatorio un grupo de imágenes cuya primera imagen es una imagen I, (i) incluyendo la primera información suplementaria fragmentos plurales de información de tipos de imagen, que indica tipos de las imágenes incluidas en el grupo, y (ii) utilizándose cuando las imágenes incluidas en la unidad de acceso aleatorio se reproducen en reproducción trucada, y estando los fragmentos plurales de información de tipos de imagen colocados en un orden que corresponde a un orden de descodificación del grupo de imágenes;
una segunda etapa de codificación para codificar la segunda información suplementaria incluida en la unidad de acceso aleatorio, (i) incluyendo la segunda información suplementaria fragmentos plurales de información de estructuras de imagen, que indica estructuras de campos o tramas de las imágenes incluidas en el grupo, y (ii) utilizándose cuando las imágenes incluidas en la unidad de acceso aleatorio se reproducen en reproducción trucada, y estando los fragmentos plurales de información de estructuras de imagen colocados en el orden que corresponde al orden de descodificación del grupo de imágenes; y
una etapa de generación para generar un flujo de imágenes en movimiento añadiendo la información suplementaria codificada primera y segunda a una imagen codificada correspondiente a la primera imagen I, que es una imagen inicial de la unidad de acceso aleatorio.
3. Un aparato de descodificación de imágenes en movimiento que descodifica un flujo que incluye imágenes codificadas que constituyen una imagen en movimiento y reproduce el flujo descodificado, comprendiendo dicho aparato de descodificación de imágenes en movimiento:
una unidad de obtención de instrucciones utilizable para obtener una instrucción que indica que se debería llevar a cabo la reproducción trucada;
una unidad de análisis utilizable para analizar una primera información suplementaria y una segunda información suplementaria para la unidad de acceso aleatorio, demultiplexando la información suplementaria primera y segunda de una primera imagen I, efectuándose el análisis para cada unidad de acceso aleatorio, incluyendo la unidad de acceso aleatorio un grupo de imágenes cuya primera imagen es una imagen I;
una unidad de especificación de imágenes de reproducción utilizable para especificar imágenes, entre las imágenes incluidas en la unidad de acceso aleatorio, que son necesarias para la reproducción trucada indicada por la instrucción obtenida por dicha unidad de obtención de instrucciones, basada en un resultado del análisis realizado por dicha unidad de análisis; y
una unidad de descodificación utilizable para descodificar las imágenes especificadas por dicha unidad de especificación de imágenes de reproducción y reproducir las imágenes descodificadas,
en el cual la primera información suplementaria en la unidad de acceso aleatorio incluye fragmentos plurales de información de tipos de imágenes, que indica tipos de las imágenes incluidas en la unidad de acceso aleatorio, y los fragmentos plurales de información de tipos de imagen se colocan en un orden que corresponde a un orden de descodificación del grupo de imágenes; y la segunda información suplementaria incluida en la unidad de acceso aleatorio incluye fragmentos plurales de información de estructuras de imágenes que indica estructuras de campos o tramas de las imágenes incluidas en la unidad de acceso aleatorio, y los fragmentos plurales de la información de estructuras de imagen se colocan en el orden que corresponde al orden de descodificación del grupo de imágenes, y
la información suplementaria primera y segunda se añaden a una imagen codificada correspondiente a la primera imagen I que es la imagen inicial de la unidad de acceso aleatorio, y se utilizan cuando las imágenes incluidas en la unidad de acceso aleatorio se reproducen en reproducción trucada.
4. Un procedimiento de descodificación de imágenes en movimiento para descodificar un flujo que incluye imágenes codificadas que constituyen una imagen en movimiento y reproducir el flujo descodificado, comprendiendo dicho procedimiento de descodificación de imágenes en movimiento:
una etapa de obtención de instrucciones para obtener una instrucción que indica que se debería llevar a cabo la reproducción trucada;
una etapa de análisis para analizar una primera información suplementaria y una segunda información suplementaria para la unidad de acceso aleatorio, demultiplexando la información suplementaria primera y segunda de una primera imagen I, efectuándose el análisis para cada unidad de acceso aleatorio, incluyendo la unidad de acceso aleatorio un grupo de imágenes cuya primera imagen es una imagen I;
una etapa de especificación de imágenes de reproducción, para especificar imágenes, entre las imágenes incluidas en la unidad de acceso aleatorio, que son necesarias para la reproducción trucada indicada por la instrucción obtenida en dicha etapa de obtención de instrucciones, basada en un resultado del análisis realizado en dicha etapa de análisis; y
una etapa de descodificación para descodificar las imágenes especificadas en dicha etapa de especificación de imágenes de reproducción y reproducir las imágenes descodificadas,
en el cual la primera información suplementaria en la unidad de acceso aleatorio incluye fragmentos plurales de información de tipos de imágenes, que indica tipos de las imágenes incluidas en la unidad de acceso aleatorio, y los fragmentos plurales de información de tipos de imagen se colocan en un orden que corresponde a un orden de descodificación del grupo de imágenes; y la segunda información suplementaria incluida en la unidad de acceso aleatorio incluye fragmentos plurales de información de estructuras de imágenes que indica estructuras de campos o tramas de las imágenes incluidas en la unidad de acceso aleatorio, y los fragmentos plurales de la información de estructuras de imagen se colocan en el orden que corresponde al orden de descodificación del grupo de imágenes, y
la información suplementaria primera y segunda se añaden a una imagen codificada correspondiente a la primera imagen I que es la imagen inicial de la unidad de acceso aleatorio, y se utilizan cuando las imágenes incluidas en la unidad de acceso aleatorio se reproducen en reproducción trucada.
5. Un soporte de grabación legible por ordenador sobre el cual se graba un flujo, incluyendo el flujo imágenes e información suplementaria primera y segunda,
en el cual el flujo está estructurado de manera que la primera información suplementaria y la segunda información suplementaria se añaden a una imagen codificada correspondiente a una primera imagen I, que es una primera imagen de una unidad de acceso aleatorio, y se utilizan cuando las imágenes incluidas en cada unidad de acceso aleatorio se reproducen en reproducción trucada, incluyendo la unidad de acceso aleatorio un grupo de imágenes cuya primera imagen es una imagen I, siendo la primera información suplementaria incluida en la unidad de acceso aleatorio fragmentos plurales de información de tipos de imagen, incluida en la unidad de acceso aleatorio, y estando los fragmentos plurales de la información de tipos de imagen colocados en un orden que corresponde a un orden de descodificación del grupo de imágenes, y siendo la segunda información suplementaria incluida en la unidad de acceso aleatorio fragmentos plurales de información de estructuras de imagen, que indica estructuras de campos o tramas de las imágenes incluidas en la unidad de acceso aleatorio, y estando los fragmentos plurales de la información de tipos de imagen colocados en el orden que corresponde al orden de descodificación del grupo de imágenes.
6. Un procedimiento de grabación para grabar un flujo que incluye imágenes que constituyen una imagen en movimiento sobre un soporte de grabación legible por ordenador, comprendiendo dicho procedimiento de grabación
una etapa de grabación para grabar el flujo generado usando el procedimiento de generación de flujo de imágenes en movimiento según la reivindicación 2.
7. Un sistema de descodificación de imágenes en movimiento que comprende el soporte de grabación según la reivindicación 5, y el aparato de descodificación de imágenes en movimiento según la reivindicación 3, que lee un flujo que incluye imágenes codificadas que constituyen una imagen en movimiento del soporte de grabación, descodifica y reproduce el flujo.
ES08158372T 2004-04-28 2005-04-25 Aparato de generacion de flujo de imagenes en movimiento, aparato de codificacion de imagenes en movimiento, aparato de multiplexado de imagenes en movimiento y aparato de descodificacion de imagenes en movimiento. Active ES2347385T3 (es)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2004134212 2004-04-28
JP2004-134212 2004-04-28
JP2004165005 2004-06-02
JP2004-165005 2004-06-02
JP2004-251871 2004-08-31
JP2004251871 2004-08-31

Publications (1)

Publication Number Publication Date
ES2347385T3 true ES2347385T3 (es) 2010-10-28

Family

ID=34971443

Family Applications (7)

Application Number Title Priority Date Filing Date
ES05736693T Active ES2330864T3 (es) 2004-04-28 2005-04-25 Aparato de generacion de flujo de imagenes en movimiento, aparado de codificacion de imagenes en movimiento, aparato de multiplexado de imagenes en movimiento y aparato de descodificacion de imagenes en movimiento.
ES10159158T Active ES2388397T3 (es) 2004-04-28 2005-04-25 Aparato de generación de un flujo de imágenes en movimiento, aparato de codificación de imágenes en movimiento, aparato de multiplexado de imágenes en movimiento y aparato de descodificación de imágenes en movimiento
ES10151438T Active ES2383652T3 (es) 2004-04-28 2005-04-25 Aparato de generación de flujos de imágenes en movimiento, aparato de codificación de imágenes en movimiento, aparato multiplexador de imágenes en movimiento y aparato de descodificación de imágenes en movimiento
ES10159159T Active ES2383655T3 (es) 2004-04-28 2005-04-25 Aparato de generación de flujos de imágenes en movimiento, aparato de codificación de imágenes en movimiento, aparato multiplexador de imágenes en movimiento y aparato de descodificación de imágenes en movimiento
ES10151443T Active ES2383654T3 (es) 2004-04-28 2005-04-25 Aparato de generación de flujos de imágenes en movimiento, aparato de codificaicón de imágenes en movimiento, aparato multiplexador de imágenes en movimiento y aparato de descodificación de imágenes en movimiento
ES08158372T Active ES2347385T3 (es) 2004-04-28 2005-04-25 Aparato de generacion de flujo de imagenes en movimiento, aparato de codificacion de imagenes en movimiento, aparato de multiplexado de imagenes en movimiento y aparato de descodificacion de imagenes en movimiento.
ES10159160T Active ES2383656T3 (es) 2004-04-28 2005-04-25 Aparato de generación de flujos de imágenes en movimiento, aparato de codificación de imágenes en movimiento, aparato multiplexador de imágenes en movimiento y aparato de descodificación de imágenes en movimiento

Family Applications Before (5)

Application Number Title Priority Date Filing Date
ES05736693T Active ES2330864T3 (es) 2004-04-28 2005-04-25 Aparato de generacion de flujo de imagenes en movimiento, aparado de codificacion de imagenes en movimiento, aparato de multiplexado de imagenes en movimiento y aparato de descodificacion de imagenes en movimiento.
ES10159158T Active ES2388397T3 (es) 2004-04-28 2005-04-25 Aparato de generación de un flujo de imágenes en movimiento, aparato de codificación de imágenes en movimiento, aparato de multiplexado de imágenes en movimiento y aparato de descodificación de imágenes en movimiento
ES10151438T Active ES2383652T3 (es) 2004-04-28 2005-04-25 Aparato de generación de flujos de imágenes en movimiento, aparato de codificación de imágenes en movimiento, aparato multiplexador de imágenes en movimiento y aparato de descodificación de imágenes en movimiento
ES10159159T Active ES2383655T3 (es) 2004-04-28 2005-04-25 Aparato de generación de flujos de imágenes en movimiento, aparato de codificación de imágenes en movimiento, aparato multiplexador de imágenes en movimiento y aparato de descodificación de imágenes en movimiento
ES10151443T Active ES2383654T3 (es) 2004-04-28 2005-04-25 Aparato de generación de flujos de imágenes en movimiento, aparato de codificaicón de imágenes en movimiento, aparato multiplexador de imágenes en movimiento y aparato de descodificación de imágenes en movimiento

Family Applications After (1)

Application Number Title Priority Date Filing Date
ES10159160T Active ES2383656T3 (es) 2004-04-28 2005-04-25 Aparato de generación de flujos de imágenes en movimiento, aparato de codificación de imágenes en movimiento, aparato multiplexador de imágenes en movimiento y aparato de descodificación de imágenes en movimiento

Country Status (13)

Country Link
US (5) US7843994B2 (es)
EP (8) EP1968063B1 (es)
JP (5) JP4071811B2 (es)
KR (1) KR101148765B1 (es)
CN (5) CN101697576B (es)
AT (7) ATE555477T1 (es)
CA (2) CA2542266C (es)
DE (2) DE602005016663D1 (es)
ES (7) ES2330864T3 (es)
MY (2) MY145551A (es)
PL (6) PL2182520T3 (es)
TW (2) TWI395207B (es)
WO (1) WO2005106875A1 (es)

Families Citing this family (104)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4002878B2 (ja) * 2003-01-17 2007-11-07 松下電器産業株式会社 画像符号化方法
WO2006038716A1 (en) * 2004-10-07 2006-04-13 Matsushita Electric Industrial Co., Ltd. Picture coding apparatus and picture decoding apparatus
WO2006073207A2 (en) * 2005-01-10 2006-07-13 Matsushita Electric Industrial Co., Ltd. Picture coding apparatus and picture decoding apparatus
JP2006211274A (ja) * 2005-01-27 2006-08-10 Toshiba Corp 記録媒体、この記録媒体を再生する方法並びにその再生装置及び記録媒体に映像データを記録する記録装置並びにその記録方法
KR100770704B1 (ko) 2005-08-04 2007-10-29 삼성전자주식회사 픽쳐 스킵 방법 및 장치
NZ566935A (en) 2005-09-27 2010-02-26 Qualcomm Inc Methods and apparatus for service acquisition
US8229983B2 (en) 2005-09-27 2012-07-24 Qualcomm Incorporated Channel switch frame
CN101300834A (zh) * 2005-11-03 2008-11-05 汤姆逊许可证公司 数字视频录制装置和方法
US7903737B2 (en) * 2005-11-30 2011-03-08 Mitsubishi Electric Research Laboratories, Inc. Method and system for randomly accessing multiview videos with known prediction dependency
US9516326B1 (en) * 2005-12-09 2016-12-06 Nvidia Corporation Method for rotating macro-blocks of a frame of a video stream
FR2894739A1 (fr) * 2005-12-12 2007-06-15 Thomson Licensing Sa Procede de codage, procede de decodage, dispositif de codage et dispositif de decodage de donnees video
JP4736918B2 (ja) * 2006-04-11 2011-07-27 パナソニック株式会社 デジタル再生装置または再生プログラム
US8699583B2 (en) * 2006-07-11 2014-04-15 Nokia Corporation Scalable video coding and decoding
US8826345B2 (en) * 2006-09-08 2014-09-02 Edgeware Ab Method and an apparatus for data streaming
US20080062869A1 (en) * 2006-09-08 2008-03-13 Edgeware Ab Method and an apparatus for data streaming
US20080068993A1 (en) * 2006-09-08 2008-03-20 Edgeware Ab Method and an apparatus for data streaming
JP4947349B2 (ja) * 2006-11-10 2012-06-06 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
US8873932B2 (en) 2007-12-11 2014-10-28 Cisco Technology, Inc. Inferential processing to ascertain plural levels of picture interdependencies
US8875199B2 (en) 2006-11-13 2014-10-28 Cisco Technology, Inc. Indicating picture usefulness for playback optimization
US8416859B2 (en) * 2006-11-13 2013-04-09 Cisco Technology, Inc. Signalling and extraction in compressed video of pictures belonging to interdependency tiers
US8155207B2 (en) 2008-01-09 2012-04-10 Cisco Technology, Inc. Processing and managing pictures at the concatenation of two video streams
US20080115175A1 (en) * 2006-11-13 2008-05-15 Rodriguez Arturo A System and method for signaling characteristics of pictures' interdependencies
KR101089072B1 (ko) * 2006-11-14 2011-12-09 퀄컴 인코포레이티드 채널 전환용 시스템 및 방법
RU2009122503A (ru) 2006-11-15 2010-12-20 Квэлкомм Инкорпорейтед (US) Системы и способы для приложений, использующих кадры переключения каналов
KR101072341B1 (ko) 2007-01-18 2011-10-11 노키아 코포레이션 Rtp 페이로드 포맷에서의 sei 메시지들의 전송
KR101396364B1 (ko) * 2007-01-24 2014-05-19 삼성전자주식회사 컨텐츠를 저장한 정보저장매체, 재생 방법 및 장치
US7995640B2 (en) * 2007-04-30 2011-08-09 Texas Instruments Incorporated Dynamic interpolation location
JP2008294638A (ja) * 2007-05-23 2008-12-04 Sony Corp 伝送システム、記録装置、伝送方法、記録方法、およびプログラム
US8804845B2 (en) 2007-07-31 2014-08-12 Cisco Technology, Inc. Non-enhancing media redundancy coding for mitigating transmission impairments
US8958486B2 (en) 2007-07-31 2015-02-17 Cisco Technology, Inc. Simultaneous processing of media and redundancy streams for mitigating impairments
KR100951008B1 (ko) * 2007-12-17 2010-04-02 한국전자통신연구원 인터레이스 부호화에서의 실시간 비트율 제어 방법 및시스템
WO2009093647A1 (ja) * 2008-01-24 2009-07-30 Nec Corporation 動画像ストリーム加工方法及び装置、それを用いた動画像再生装置並びに動画像配信装置
US8416858B2 (en) 2008-02-29 2013-04-09 Cisco Technology, Inc. Signalling picture encoding schemes and associated picture properties
JP4577409B2 (ja) * 2008-06-10 2010-11-10 ソニー株式会社 再生装置、再生方法、プログラム、及び、データ構造
US8886022B2 (en) 2008-06-12 2014-11-11 Cisco Technology, Inc. Picture interdependencies signals in context of MMCO to assist stream manipulation
US8699578B2 (en) 2008-06-17 2014-04-15 Cisco Technology, Inc. Methods and systems for processing multi-latticed video streams
US8705631B2 (en) 2008-06-17 2014-04-22 Cisco Technology, Inc. Time-shifted transport of multi-latticed video for resiliency from burst-error effects
US8971402B2 (en) 2008-06-17 2015-03-03 Cisco Technology, Inc. Processing of impaired and incomplete multi-latticed video streams
CN102396221B (zh) * 2008-06-25 2015-03-25 思科技术公司 阻止特技模式操作的支持
US8761266B2 (en) 2008-11-12 2014-06-24 Cisco Technology, Inc. Processing latticed and non-latticed pictures of a video program
FR2940737A1 (fr) * 2008-12-31 2010-07-02 Thomson Licensing Generation de flux de paquets de donnees video contenant des informations d'acceleration pour le decodage
JP4560143B2 (ja) * 2009-01-19 2010-10-13 パナソニック株式会社 符号化方法、復号方法、符号化装置、復号装置、プログラム、及び集積回路
US8326131B2 (en) 2009-02-20 2012-12-04 Cisco Technology, Inc. Signalling of decodable sub-sequences
US20100218232A1 (en) * 2009-02-25 2010-08-26 Cisco Technology, Inc. Signalling of auxiliary information that assists processing of video according to various formats
US8782261B1 (en) 2009-04-03 2014-07-15 Cisco Technology, Inc. System and method for authorization of segment boundary notifications
US8949883B2 (en) 2009-05-12 2015-02-03 Cisco Technology, Inc. Signalling buffer characteristics for splicing operations of video streams
US8279926B2 (en) 2009-06-18 2012-10-02 Cisco Technology, Inc. Dynamic streaming with latticed representations of video
US9300969B2 (en) 2009-09-09 2016-03-29 Apple Inc. Video storage
US20110129202A1 (en) * 2009-12-01 2011-06-02 Divx, Llc System and method for determining bit stream compatibility
TWI410135B (zh) * 2009-12-08 2013-09-21 Alticast Corp 在數位廣播系統中傳送/接收傳輸流的裝置與方法
US20110176611A1 (en) * 2010-01-15 2011-07-21 Yu-Wen Huang Methods for decoder-side motion vector derivation
US8254453B2 (en) * 2010-01-20 2012-08-28 Himax Media Solutions, Inc. Multi-format video decoder and related decoding method
JP5387430B2 (ja) * 2010-01-28 2014-01-15 株式会社Jvcケンウッド 動画像再生装置、動画像再生方法、及び、プログラム
US20110222837A1 (en) * 2010-03-11 2011-09-15 Cisco Technology, Inc. Management of picture referencing in video streams for plural playback modes
US8259808B2 (en) * 2010-03-25 2012-09-04 Mediatek Inc. Low complexity video decoder
KR102595454B1 (ko) 2010-04-13 2023-10-27 지이 비디오 컴프레션, 엘엘씨 평면 간 예측
CN106454373B (zh) 2010-04-13 2019-10-01 Ge视频压缩有限责任公司 解码器、重建数组的方法、编码器及编码方法
CN106162172B (zh) 2010-04-13 2020-06-02 Ge视频压缩有限责任公司 解码器及方法、编码器及方法、产生和解码数据流方法
RS63059B1 (sr) * 2010-04-13 2022-04-29 Ge Video Compression Llc Kodiranje videa primenom podele sa više stabala na slikama
JP5805991B2 (ja) * 2010-05-07 2015-11-10 トムソン ライセンシングThomson Licensing ピクチャ・シーケンスを符号化する方法、それに対応する再構築方法、および当該シーケンスを表す符号化データのストリーム
JP2011259110A (ja) * 2010-06-07 2011-12-22 Panasonic Corp 動画再生方法および動画再生装置
JP2012018727A (ja) * 2010-07-08 2012-01-26 Sony Corp 情報処理装置、および情報処理方法、並びにプログラム
JP5589654B2 (ja) * 2010-08-04 2014-09-17 三菱電機株式会社 映像音声再生装置、および映像音声再生方法
KR102030977B1 (ko) 2011-02-22 2019-10-10 타지반 투 엘엘씨 필터 방법, 동화상 부호화 장치, 동화상 복호 장치 및 동화상 부호화 복호 장치
CN107094258B (zh) 2011-02-22 2020-02-14 太阳专利托管公司 图像解码方法及图像解码装置
US9516379B2 (en) 2011-03-08 2016-12-06 Qualcomm Incorporated Buffer management in video codecs
KR101803970B1 (ko) * 2011-03-16 2017-12-28 삼성전자주식회사 컨텐트를 구성하는 장치 및 방법
JP5341952B2 (ja) 2011-05-30 2013-11-13 株式会社東芝 ビデオサーバ及びデータ収録再生方法
USRE47366E1 (en) 2011-06-23 2019-04-23 Sun Patent Trust Image decoding method and apparatus based on a signal type of the control parameter of the current block
EP4228264A1 (en) 2011-06-23 2023-08-16 Sun Patent Trust Image decoding device, image encoding device
WO2012176464A1 (ja) 2011-06-24 2012-12-27 パナソニック株式会社 画像復号方法、画像符号化方法、画像復号装置、画像符号化装置及び画像符号化復号装置
KR102062283B1 (ko) 2011-06-24 2020-01-03 선 페이턴트 트러스트 화상 복호 방법, 화상 부호화 방법, 화상 복호 장치, 화상 부호화 장치 및 화상 부호화 복호 장치
WO2013001764A1 (ja) 2011-06-27 2013-01-03 パナソニック株式会社 画像復号方法、画像符号化方法、画像復号装置、画像符号化装置及び画像符号化復号装置
CA2837535C (en) 2011-06-28 2018-09-04 Panasonic Corporation Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus
WO2013001767A1 (ja) 2011-06-29 2013-01-03 パナソニック株式会社 画像復号方法、画像符号化方法、画像復号装置、画像符号化装置及び画像符号化復号装置
CA2837537C (en) 2011-06-30 2019-04-02 Panasonic Corporation Image decoding method, image coding method, image decoding apparatus, image coding apparatus, and image coding and decoding apparatus
AU2012277219A1 (en) 2011-06-30 2013-09-19 Sun Patent Trust Image decoding method, image encoding method, image decoding device, image encoding device, and image encoding/decoding device
KR101457895B1 (ko) * 2011-07-02 2014-11-04 삼성전자주식회사 비디오 복호화 방법 및 장치
US8767824B2 (en) 2011-07-11 2014-07-01 Sharp Kabushiki Kaisha Video decoder parallelization for tiles
JPWO2013008438A1 (ja) 2011-07-11 2015-02-23 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 復号方法及び復号装置
MY165342A (en) 2011-07-19 2018-03-21 Tagivan Ii Llc Filtering method for performing deblocking filtering on a boundary between an intra pulse code modulation block and a non-intra pulse code modulation block which are adjacent to each other in an image
CN103369314B (zh) * 2012-04-01 2018-02-16 中兴通讯股份有限公司 帧场信息的编码方法及解码方法、编码器和解码器
US20150063463A1 (en) * 2012-04-15 2015-03-05 Samsung Electronics Co., Ltd. Method and device for coding multi-layer video, and method and device for decoding multi-layer video
US9979959B2 (en) 2012-04-20 2018-05-22 Qualcomm Incorporated Video coding with enhanced support for stream adaptation and splicing
KR102167096B1 (ko) * 2012-09-13 2020-10-16 엘지전자 주식회사 영상 부호화/복호화 방법 및 장치
US8989508B2 (en) * 2012-09-28 2015-03-24 Sharp Kabushiki Kaisha Electronic device for signaling a sub-picture buffer parameter
EP3038365B1 (en) * 2013-08-22 2021-01-13 Sony Corporation Encoding device, encoding method, transmission device, decoding device, decoding method, and reception device
EP3086559A4 (en) 2013-12-16 2017-08-02 LG Electronics Inc. Signal transmission/reception device and signal transmission/reception method for providing trick play service
JP6224522B2 (ja) * 2014-05-22 2017-11-01 日本電信電話株式会社 映像配信装置、映像配信方法及び映像配信プログラム
US9819945B2 (en) 2014-06-25 2017-11-14 Qualcomm Incorporated Multi-layer video coding
KR101528269B1 (ko) * 2014-09-04 2015-06-16 (주)브레인키즈 동영상 재생 방법
US10390047B2 (en) * 2015-01-09 2019-08-20 Sony Corporation Image processing apparatus and image processing method for controlling the granularity in trick play
KR101868203B1 (ko) * 2015-01-28 2018-07-20 한국전자통신연구원 스트림 처리 방법 및 장치
WO2017047399A1 (ja) * 2015-09-15 2017-03-23 ソニー株式会社 受信装置および方法、送信装置および方法
CN106792078A (zh) * 2016-07-12 2017-05-31 乐视控股(北京)有限公司 视频处理方法及装置
US10412383B2 (en) * 2017-08-15 2019-09-10 Google Llc Compressing groups of video frames using reversed ordering
TWI659647B (zh) * 2017-11-21 2019-05-11 晶睿通訊股份有限公司 影像播放設備及其影像播放方法
TWI665663B (zh) * 2018-08-22 2019-07-11 張維中 影音倒轉播放裝置與系統及其方法
CN109618186B (zh) * 2018-11-15 2021-01-01 中国航空工业集团公司洛阳电光设备研究所 一种采用fpga实现的h264/avc视频辅助增强信息封装电路
CN115136604A (zh) * 2019-12-23 2022-09-30 Lg电子株式会社 基于nal单元类型的图像或视频编码
US11792432B2 (en) * 2020-02-24 2023-10-17 Tencent America LLC Techniques for signaling and identifying access unit boundaries
CN115380530A (zh) 2020-03-20 2022-11-22 字节跳动有限公司 临近子图片的编解码
CN115462070A (zh) 2020-04-20 2022-12-09 字节跳动有限公司 对参考图片列表的约束
EP4154523A4 (en) * 2020-06-08 2023-11-22 ByteDance Inc. NUMBER OF SLICES CONSTRAINTS IN A CODED VIDEO IMAGE

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2159105C (en) * 1994-02-28 2003-09-23 Makoto Kawamura Method and device for recording data, data recording medium, and method and device for reproducing data
JP3365109B2 (ja) * 1994-12-28 2003-01-08 ソニー株式会社 データ再生装置及びデータ再生方法
JP3604186B2 (ja) 1995-02-16 2004-12-22 三菱電機株式会社 記録媒体の記録方法及び再生方法
JP3329979B2 (ja) * 1995-02-24 2002-09-30 株式会社日立製作所 光ディスク及び光ディスク再生装置
JPH08280009A (ja) 1995-04-06 1996-10-22 Matsushita Electric Ind Co Ltd 画像符号化装置および画像復号化装置および光ディスク
JP3146937B2 (ja) * 1995-07-13 2001-03-19 日本ビクター株式会社 高能率符号化された動画像情報から早送り,早戻し画像を再生する再生方法
JP3484834B2 (ja) * 1995-07-28 2004-01-06 ソニー株式会社 データ符号化/復号化方法および装置
US5757435A (en) * 1995-12-08 1998-05-26 C-Cube Microsystems, Inc. MPEG-2 inverse telecine circuit
JP4434326B2 (ja) 1997-03-19 2010-03-17 ソニー株式会社 映像再生方法及び映像再生装置
KR20000068802A (ko) 1997-08-21 2000-11-25 이데이 노부유끼 디스크 기록방법 및 장치, 디스크 재생방법 및 장치와 기록매체
CA2289958C (en) * 1998-11-19 2003-01-21 Tomoyuki Okada Information recording medium, apparatus and method for recording or reproducing data thereof
JP2000354224A (ja) * 1999-01-01 2000-12-19 Hitachi Ltd 画像データ記録方法および光ディスク再生方法
JP3805985B2 (ja) * 1999-02-18 2006-08-09 株式会社東芝 ストリームデータの情報記憶媒体、その記録方法、再生方法、記録装置および再生装置
EP1148727A1 (en) * 2000-04-05 2001-10-24 THOMSON multimedia Method and device for decoding a digital video stream in a digital video system using dummy header insertion
MXPA02002798A (es) * 1999-10-07 2003-10-14 Thomson Licensing Sa Metodo y dispostivo para la generacion trucada en un sistema de video digital.
CN100383889C (zh) * 2001-01-16 2008-04-23 松下电器产业株式会社 信息记录装置和方法
JP3820155B2 (ja) 2001-01-16 2006-09-13 松下電器産業株式会社 情報記録装置および方法、情報記録プログラム、および情報記録プログラムを記録した記録媒体
JP2003009085A (ja) * 2001-06-20 2003-01-10 Mitsubishi Electric Corp デジタル信号記録装置および方法、デジタル信号再生装置および方法
US20030044166A1 (en) * 2001-08-31 2003-03-06 Stmicroelectronics, Inc. System for multiplexing video data streams in a digital video recorder and method of operating the same
US7218635B2 (en) * 2001-08-31 2007-05-15 Stmicroelectronics, Inc. Apparatus and method for indexing MPEG video data to perform special mode playback in a digital video recorder and indexed signal associated therewith
US6707984B2 (en) 2001-10-31 2004-03-16 Thomson Licensing S.A. Changing a playback speed for video presentation recorded in a modified film format
CA2449067C (en) * 2002-04-02 2012-07-24 Sony Corporation Data recording device and method, data reproduction device and method, information recording medium, program-containing medium, and program
US8406301B2 (en) * 2002-07-15 2013-03-26 Thomson Licensing Adaptive weighting of reference pictures in video encoding
US7903742B2 (en) 2002-07-15 2011-03-08 Thomson Licensing Adaptive weighting of reference pictures in video decoding
US7376186B2 (en) * 2002-07-15 2008-05-20 Thomson Licensing Motion estimation with weighting prediction
JP4477295B2 (ja) 2002-10-10 2010-06-09 古河電気工業株式会社 自動車ワイヤハーネス用アルミ電線
JP3975889B2 (ja) 2002-11-13 2007-09-12 松下電器産業株式会社 照光つまみ及びその製造方法
JP3718499B2 (ja) * 2002-11-29 2005-11-24 シャープ株式会社 動画像記録方法
JP4318478B2 (ja) 2002-12-27 2009-08-26 原子燃料工業株式会社 沸騰水型軽水炉用燃料集合体
CN1692654A (zh) * 2003-01-17 2005-11-02 松下电器产业株式会社 动态图像编码方法和动态图像解码方法
JP2003303476A (ja) 2003-03-03 2003-10-24 Pioneer Electronic Corp 情報記録媒体、その記録装置及び記録方法並びにその再生装置及び再生方法
EP1704720A1 (en) * 2004-01-16 2006-09-27 General Instrument Corporation Method, protocol, and apparatus for transporting advanced video coding content
US8391672B2 (en) * 2004-02-06 2013-03-05 Panasonic Corporation Recording medium, reproduction device, program, and reproduction method
TW200952462A (en) * 2004-06-02 2009-12-16 Panasonic Corp Seamless switching between random access units multiplexed in a multi angle view multimedia stream

Also Published As

Publication number Publication date
DE602005016663D1 (de) 2009-10-29
CN1950907A (zh) 2007-04-18
TW200601281A (en) 2006-01-01
CN101697576B (zh) 2012-07-11
EP1743338B1 (en) 2009-09-16
JP4910065B2 (ja) 2012-04-04
US8130843B2 (en) 2012-03-06
JP4071811B2 (ja) 2008-04-02
EP2182519B1 (en) 2012-04-25
TWI395207B (zh) 2013-05-01
MY144441A (en) 2011-09-15
EP1743338A1 (en) 2007-01-17
US20080117988A1 (en) 2008-05-22
CA2542266A1 (en) 2005-11-10
US20080219393A1 (en) 2008-09-11
ATE555477T1 (de) 2012-05-15
PL2207181T3 (pl) 2012-09-28
US20080118218A1 (en) 2008-05-22
EP1968063B1 (en) 2010-06-16
PL2182520T3 (pl) 2012-09-28
CN101778235A (zh) 2010-07-14
ATE471562T1 (de) 2010-07-15
PL1743338T3 (pl) 2010-04-30
MY145551A (en) 2012-02-29
PL2207183T3 (pl) 2012-09-28
ATE555475T1 (de) 2012-05-15
JP2008295055A (ja) 2008-12-04
EP2207181B1 (en) 2012-04-25
JP2010028860A (ja) 2010-02-04
EP2207182A1 (en) 2010-07-14
DE602005021926D1 (de) 2010-07-29
ES2388397T3 (es) 2012-10-15
EP2207181A1 (en) 2010-07-14
ATE555474T1 (de) 2012-05-15
TW200949824A (en) 2009-12-01
EP2207183B1 (en) 2012-04-25
US20080131079A1 (en) 2008-06-05
JP4185567B1 (ja) 2008-11-26
US7843994B2 (en) 2010-11-30
ES2383652T3 (es) 2012-06-25
US7809060B2 (en) 2010-10-05
ATE555476T1 (de) 2012-05-15
CN101697575B (zh) 2012-05-30
PL2182519T3 (pl) 2012-09-28
ATE443327T1 (de) 2009-10-15
US20080118224A1 (en) 2008-05-22
CN101697576A (zh) 2010-04-21
CA2811897C (en) 2014-06-03
EP2182520B1 (en) 2012-04-25
TWI324338B (en) 2010-05-01
CA2542266C (en) 2012-07-17
EP2207183B8 (en) 2012-08-08
CN101707723A (zh) 2010-05-12
ES2383655T3 (es) 2012-06-25
KR101148765B1 (ko) 2012-05-25
JP2007325289A (ja) 2007-12-13
PL2207182T3 (pl) 2012-09-28
US8254446B2 (en) 2012-08-28
JP2007535187A (ja) 2007-11-29
JP2011019270A (ja) 2011-01-27
EP2182519A1 (en) 2010-05-05
WO2005106875A1 (en) 2005-11-10
ES2383656T3 (es) 2012-06-25
ES2330864T3 (es) 2009-12-16
ES2383654T3 (es) 2012-06-25
CN101697575A (zh) 2010-04-21
US8254447B2 (en) 2012-08-28
EP2182521A1 (en) 2010-05-05
JP4614991B2 (ja) 2011-01-19
EP2182520A1 (en) 2010-05-05
JP4763824B2 (ja) 2011-08-31
KR20070007028A (ko) 2007-01-12
EP1968063A1 (en) 2008-09-10
EP2207183A1 (en) 2010-07-14
CN1950907B (zh) 2011-04-13
EP2207182B1 (en) 2012-04-25
ATE555473T1 (de) 2012-05-15
CN101778235B (zh) 2013-06-19
CA2811897A1 (en) 2005-11-10

Similar Documents

Publication Publication Date Title
ES2347385T3 (es) Aparato de generacion de flujo de imagenes en movimiento, aparato de codificacion de imagenes en movimiento, aparato de multiplexado de imagenes en movimiento y aparato de descodificacion de imagenes en movimiento.
ES2405131T3 (es) Aparato de codificación de imagen y aparato de decodificación de imagen
KR100891397B1 (ko) 스트림 생성 장치, 스트림 생성 방법, 및 기록 매체