FR2886787A1 - Procede et dispositif de codage et de decodage d'une sequence d'images - Google Patents

Procede et dispositif de codage et de decodage d'une sequence d'images Download PDF

Info

Publication number
FR2886787A1
FR2886787A1 FR0505732A FR0505732A FR2886787A1 FR 2886787 A1 FR2886787 A1 FR 2886787A1 FR 0505732 A FR0505732 A FR 0505732A FR 0505732 A FR0505732 A FR 0505732A FR 2886787 A1 FR2886787 A1 FR 2886787A1
Authority
FR
France
Prior art keywords
images
nested
image
high frequency
coding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR0505732A
Other languages
English (en)
Inventor
Patrick Lopez
Gwenaelle Marquant
Edouard Francois
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Priority to FR0505732A priority Critical patent/FR2886787A1/fr
Priority to US11/437,495 priority patent/US7672520B2/en
Priority to EP06114445A priority patent/EP1732330A1/fr
Priority to CN2006100845094A priority patent/CN1878304B/zh
Priority to JP2006157340A priority patent/JP4880373B2/ja
Publication of FR2886787A1 publication Critical patent/FR2886787A1/fr
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • H04N19/615Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding using motion compensated temporal filtering [MCTF]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/63Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets
    • H04N19/64Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets characterised by ordering of coefficients or of bits for transmission
    • H04N19/645Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding using sub-band based transform, e.g. wavelets characterised by ordering of coefficients or of bits for transmission by grouping of coefficients into blocks after the transform
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/13Adaptive entropy coding, e.g. adaptive variable length coding [AVLC] or context adaptive binary arithmetic coding [CABAC]

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

L'invention concerne un procédé de codage de N+1 images comprenant une étape (10) d'analyse temporelle de ces images générant une image basse fréquence et N images haute fréquence. Il comprend en outre les étapes suivantes :- diviser (16) chacune des N+1 images basse et haute fréquence en N+1 parties ;- imbriquer (16) les N+1 images basse et haute fréquence de manière à générer N+1 images imbriquées et de telle sorte que les N+1 parties de l'image basse résolution soient réparties entre les N+1 images imbriquées, chacune des N+1 images imbriquées comprenant une seule partie de l'image basse résolution; et- coder (17) les N+1 images imbriquées indépendamment les unes des autres, chacune des images imbriquées étant codées avec un même nombre de bits.

Description

PROCEDE ET DISPOSITIF DE CODAGE ET DE DECODAGE D'UNE SEQUENCE D'IMAGES
1. Domaine de l'invention L'invention concerne un procédé et un dispositif de codage et de décodage d'une séquence d'images utilisant un procédé (respectivement dispositif) de codage et de décodage d'images fixes.
2. Etat de l'art Dans la plupart des procédés de codage de séquence d'images, tel que MPEG ou les procédés basés sur un schéma ondelettes t+ 2D (i.e. utilisant une étape d'analyse temporelle t et une étape d'analyse spatiale 2D), une première étape d'analyse temporelle permet de réduire la redondance temporelle entre images successives et une deuxième étape d'analyse spatiale permet de réduire la redondance spatiale. Un tel procédé est illustré par la figure 1. Chaque image de la séquence comprend une ou plusieurs composantes, par exemple une composante luminance et deux composantes chrominance. Préalablement au codage, la séquence d'images, appelées images source, est généralement divisée en groupes d'images ( GOP - Group Of Pictures ou GOF - Group Of Frames en anglais) référencés GOF1, GOF2, et GOF3 sur la figure 2. L'étape 10 du procédé de codage consiste en une analyse temporelle de la séquence éventuellement compensée en mouvement, par exemple par filtrage temporel compensé en mouvement ("MCTF"- Motion Compensated Temporal Filtering en anglais) afin d'obtenir différentes bandes de fréquence temporelles ou bien par prédiction comme cela est le cas dans les schémas de codage basés sur la norme MPEG2 définie dans le document ISO/IEC 13818-2 (intitulé en anglais Information technology -- Generic coding of moving pictures and associated audio information: Video ). Cette étape est généralement appliquée indépendamment sur chacune des composantes de l'image. La compensation de mouvement utilise des vecteurs de mouvement (MV) fournis par une étape 11 d'estimation de mouvement. Cette étape peut, par exemple, mettre en oeuvre une estimation classique par appariement de blocs ( block matching en anglais). Ces vecteurs sont utilisés afin de réduire la quantité d'informations à transmettre quand la position d'un objet bouge d'une image à l'autre dans la séquence. Les images résultantes de cette analyse temporelle sont ensuite codées lors d'une étape 17. Cette étape comprend généralement une étape 12 d'analyse spatiale permettant de réduire la redondance spatiale en utilisant par exemple une transformée en cosinus discrète ( DCT - Discrete Cosine Transform en anglais) ou une transformée en ondelettes discrète ( DWT - Discrete Wavelet Transform en anglais) et une étape 13 de codage entropique permettant de coder les coefficients spatio-temporels ainsi obtenus. Lors d'une étape de multiplexage 15, les données de mouvement préalablement codées lors d'une l'étape 14 sont combinées aux données codées relatives aux coefficients spatio-temporels afin de créer un unique flux de données. Dans le cas où l'étape 13 de codage entropique ne permet pas d'adapter le nombre de bits utilisés pour coder chaque image, toutes les images de la séquence sont est alors codées avec le même nombre de bits. L'impossibilité d'adapter le nombre de bits utilisé pour coder chaque image a pour effet de diminuer la qualité de reconstruction de la séquence après décodage. Pour certaines applications (par exemple, cinéma numérique) requérant une haute qualité de reconstruction, cette dégradation n'est pas tolérable.
3. Résumé de l'invention L'invention a pour but de pallier au moins un de ces inconvénients. Elle permet notamment d'améliorer la qualité de reconstruction des images lorsque le procédé (respectivement dispositif) de codage impose de coder chaque image avec un même nombre de bits.
A cet effet, l'invention concerne un procédé de codage de N+1 images comprenant au moins une composante. Le procédé comprenant une étape d'analyse temporelle desdites N+1 images générant, pour chaque composante, une image basse fréquence et N images haute fréquence. Il comprend en outre les étapes suivantes: diviser, pour chaque composante, chacune des N+1 images basse et haute fréquence en N+1 parties; imbriquer, pour chaque composante, les N+1 images basse et haute fréquence de manière à générer une séquence ordonnée de N+1 images imbriquées et de telle sorte que les N+1 parties de l'image basse fréquence soient réparties entre les N+1 images imbriquées, chacune des N+1 images imbriquées comprenant une seule partie de l'image basse fréquence; et coder, pour chaque composante, les N+1 images imbriquées indépendamment les unes des autres, chacune des images imbriquées étant codées avec un même nombre de bits.
Selon un mode de réalisation préféré, chacune desdites N+1 images comprend au moins deux composantes et l'étape pour coder les N+1 images imbriquées consiste à coder ensemble les images imbriquées de même ordre relatives aux au moins deux composantes.
Préférentiellement, l'étape de codage est basée sur la norme de codage JPEG2000.
Avantageusement, l'étape d'analyse temporelle consiste en un filtrage temporel compensé en mouvement.
Préférentiellement, le filtrage temporel utilise un filtre appartenant au groupe de filtres comprenant: le filtre de type Haar; et le filtre de type Daubechies 5-7.
Avantageusement, le procédé est appliqué successivement à au moins 20 deux groupes de N+1 images, chacune des images étant divisées en N+1 parties séparées par M frontières. Chacune des M frontières est déplacée selon une direction spatiale donnée entre les au moins deux groupes d'images.
Selon une caractéristique particulière, N est égal à 1 et M est égal à 1.
Préférentiellement, au début de chacun des groupes d'images la frontière est déplacée, au sein d'une fenêtre de déplacement prédéfinie, d'un nombre constant de pixels et en ce que si la frontière sort de la fenêtre de déplacement, la frontière est déplacée à une position prédéterminée de la fenêtre de déplacement.
L'invention concerne également un procédé de décodage d'images codées selon le procédé de codage selon l'invention, les images codées se présentant sous la forme d'un flux de données. Le procédé de décodage comprend les étapes suivantes: décoder le flux ou une partie du flux de manière à générer, pour chaque composante, N+1 images imbriquées; désimbriquer, pour chaque composante, les N+1 images imbriquées de manière à générer une image basse fréquence et 5 N images haute fréquence; et effectuer une synthèse temporelle des N+1 images basse et haute fréquence de manière à générer N+1 images décodées.
L'invention concerne en outre un dispositif de codage pour la mise en 10 oeuvre du procédé de codage selon l'invention. Ce dispositif comprenant un module d'analyse temporelle des N+1 images générant, pour chaque composante, une image basse fréquence et N images haute fréquence. II comprend en outre: un module de traitement pour diviser, pour chaque composante, chacune des N+1 images basse et haute fréquence en N+1 parties et imbriquer les N+1 images basse et haute fréquence de manière à générer une séquence ordonnée de N+1 images imbriquées et de telle sorte que les N+1 parties de l'image basse fréquence soient réparties entre les N+1 images imbriquées, chacune des N+1 images imbriquées comprenant une seule partie de l'image basse fréquence; et au moins un module de codage pour coder, pour chaque composante, les N+1 images imbriquées indépendamment les unes des autres, chacune des images imbriquées étant codées avec un même nombre de bits.
Selon un mode de réalisation préféré, le au moins un module de codage est un codeur d'images basé sur la norme JPEG2000.
L'invention concerne également un dispositif de décodage pour la mise en oeuvre du procédé de décodage selon l'invention. Ce dispositif comprend: un module de décodage du flux ou d'une partie du flux de manière à générer, pour chaque composante, N+1 images imbriquées; un module de traitement des N+1 images imbriquées de manière à générer une image basse fréquence et N images haute fréquence; et un module de synthèse temporelle des N+1 images basse et haute fréquence de manière à générer N+ 1 images décodées.
4. Listes des figures L'invention sera mieux comprise et illustrée au moyen d'exemples de modes de réalisation et de mise en oeuvre avantageux, nullement limitatifs, en référence aux figures annexées sur lesquelles: la figure 1 illustre un procédé de codage selon l'état de l'art; la figure 2 illustre la structure en groupes d'images (GOF) d'une séquence d'images selon l'état de l'art; la figure 3 illustre un procédé de codage selon l'invention; la figure 4 illustre un procédé d'analyse temporelle basé ondelettes d'une séquence d'images structurée en GOF de 2 images selon l'état de l'art; la figure 5 illustre un procédé d'analyse temporelle basé ondelettes d'une séquence d'images structurée en GOF de 4 images selon l'état de l'art; la figure 6 illustre un partionnement en quadrants des images basse et haute fréquence résultant d'une analyse temporelle dans le cas d'un GOF de 4 images; la figure 7 illustre une imbrication des quadrants des images basse et haute fréquence résultant d'une analyse temporelle dans le cas d'un GOF de 4 images; la figure 8 illustre une imbrication des quadrants des images basse et haute fréquence résultant d'une analyse temporelle de 4 images selon un autre mode de réalisation; la figure 9 illustre un partionnement en deux parties des images basse et haute fréquence résultant d'une analyse temporelle dans le cas d'un GOF de 2 images; 30 2886787 6 la figure 10 illustre une imbrication des parties des images basse et haute fréquence résultant d'une analyse temporelle dans le cas d'un GOF de 2 images; la figure 11 illustre un déplacement de la frontière entre les deux parties d'images de GOF en GOF; la figure 12 illustre une structure en multi-GOF d'une séquence d'images; la figure 13 illustre un procédé de décodage selon l'invention; la figure 14 illustre un dispositif de codage selon l'invention; et la figure 15 illustre un dispositif de décodage selon l'invention;
5. Description détaillée de l'invention
L'invention concerne un procédé de codage d'une séquence d'images source générant un flux de données et un procédé de décodage du flux généré par le procédé de codage. Une image source comprend une ou plusieurs composantes, par exemple une composante de luminance Y et deux composantes de chrominance U et V. Chaque composante peut être elle-même représentée sous la forme d'une image constituée de pixels ou points image à chacun desquels est associé une valeur (par exemple une valeur Y de luminance ou une valeur U ou V de chrominance). Le procédé de codage est illustré par la figure 3. Le procédé selon l'invention comprend des étapes similaires au procédé selon l'état de l'art illustré par la figure 1. Ces étapes portent les mêmes références. Préalablement au codage, la séquence d'images source est généralement divisée en groupes de N+1 images (GOF) tel qu'illustré sur la figure 2. Selon un premier mode de réalisation, la séquence est divisée en GOF de 2 images.
Lors d'une étape 10, chaque GOF est analysé temporellement par exemple en utilisant un filtrage temporel compensé en mouvement (MCTF). Cette étape est généralement appliquée indépendamment sur chacune des composantes de l'image. Un filtrage temporel non compensé en mouvement pourrait également être utilisé. Un tel filtrage temporel peut être effectué soit 10 par une méthode de convolution classique ou bien en utilisant une méthode particulière, dite méthode de lifting, qui comprend une succession d'étapes de prédiction et de mise à jour. Le filtrage en lui- même peut être basé sur un schéma ondelettes, par exemple un schéma de filtrage court de type Haar ou de filtrage long de type Daubechies 9-7. De manière générale, comme dans le domaine spatial, la transformée en ondelettes temporelle consiste en un filtrage dyadique récursif sur les basses fréquences. A un niveau donné de décomposition temporelle, un groupe de 2P images est ainsi transformé en deux groupes, respectivement de basse et haute fréquence, de 2P-' images.
Les images basse fréquence ainsi obtenues sont décomposées à nouveau selon le même procédé pour obtenir un nouveau niveau de décomposition temporelle. La figure 4 illustre un tel schéma d'analyse temporelle d'un GOF de 2 images référencées A et B par une méthode de lifting basée sur un schéma de filtrage type Haar. Sur cette figure, la décomposition temporelle est effectuée sur 2 niveaux: un premier niveau de résolution temporelle référencé No correspond aux images source A et B de la séquence, un deuxième niveau de résolution référencé NI correspond à des images haute et basse fréquence respectivement référencées H et L. Le procédé de filtrage temporel consiste à appliquer un filtre passe-haut et un filtre passe-bas afin d'obtenir une image H représentant les hautes fréquences temporelles et une image L représentant les basses fréquences temporelles. Pour réaliser les filtrages, un champ de mouvement est estimé lors d'une étape 11 entre chaque paire d'images à filtrer et cela pour chaque niveau, par exemple par un estimateur de type pel-récursif ou de type appariement de blocs ( block matching en anglais). Ces deux étapes de filtrage correspondent aux équations suivantes: H = B MCA,B(A) (étape de prédiction) L = -h.A + IMCA,B (H) (étape de mise à jour) où MCA<-B (F) correspond à la compensation de mouvement d'une image F et 30 où IMCA,_B (H) correspond à une décompensation en mouvement de l'image H. Pour obtenir l'image haute fréquence H, le champ de mouvement entre les images A et B est estimé (champ de mouvement de B vers A). Plus précisément, H est obtenue par différence point à point de l'image B et de l'image A compensée en mouvement. Ainsi, on retranche à un pixel de B une certaine valeur de A, interpolée le cas échéant, pointée par le vecteur mouvement calculé lors de l'estimation de mouvement de l'image B vers l'image A. Pour obtenir l'image basse fréquence L, le champ de mouvement entre les images B et A est estimé (champ de mouvement de A vers B). Plus précisément, l'image L est déduite de l'image H, par addition de l'image A à l'image H compensée en mouvement inverse. Ainsi, on ajoute, à un pixel de A ou plus exactement à une valeur normalisée de la luminance du pixel, une certaine valeur dans H, interpolée le cas échéant, pointée par le vecteur mouvement calculé lors de l'estimation de mouvement de l'image A vers l'image B. Généralement, un seul champ de mouvement est estimé, par exemple celui de B vers A, l'autre étant déduit du premier par exemple par inversion directe du premier champ. Dans le cas d'un GOF de taille supérieure à deux images, ce filtrage est appliqué à nouveau sur les images basse fréquence. Plus particulièrement, le procédé est illustré sur la figure 5 dans le cas d'un GOF de 4 images référencées AI, BI, A2 et B2. L'analyse temporelle permet entre autre d'obtenir 4 images: une image basse fréquence référencée L3 et trois images haute fréquence référencées HI, H2 et H3 correspondant aux différents niveaux de décomposition temporelle (N1 et N2). Sur cette figure, le premier niveau de décomposition temporelle référencé No correspond aux images source de la séquence, le deuxième niveau référencé NI correspond aux images référencées LI, L2, HI et H2 et le troisième niveau référencé N2 correspond aux images référencées L3 et H3. L'analyse temporelle peut être étendue à un GOF de taille supérieure à 4 de manière directe en générant des niveaux de décomposition supplémentaires. Comme mentionné précédemment, le procédé de filtrage temporel peut ne pas utiliser de compensation de mouvement. Dans le cas d'un GOF de deux images, les images H et L sont alors générées de la manière suivante: J H = B A (étape de prédiction) L = A+ B (étape de mise à joure) Lorsque l'image source comprend plusieurs composantes (par exemple Y, U et V), cette étape est appliquée indépendamment sur chacune des composantes. Ainsi, dans le cas d'un GOF de deux images l'étape 10 génère une image LX et une image HX par composante x. Généralement les vecteurs de mouvements estimés sur les composantes de luminance sont utilisés directement sur les composantes de chrominance après une mise à l'échelle (par exemple division par deux des composantes d'un vecteur de mouvement dans le cas d'un format 420).
Lors de l'étape suivante 16, les images obtenues à l'étape 10 sont divisées en plusieurs parties séparées par des frontières de manière à pouvoir imbriquer ( interleave en anglais) les images basse et haute fréquence selon un motif particulier. Plus précisément, une image basse fréquence (par exemple L3) et N images haute fréquence (par exemple H1, H2 et H3 dans le cas d'un GOF de 4 images) étant obtenues à l'étape 10, ces images sont divisées en N+1 parties. Dans le cas d'un GOF de quatre images, les quatre images sont divisées en quadrants référencés X_NW, X_NE, X_SW et W SE sur la figure 6, où X est la référence à l'une des quatre images à coder (H1, H2, H3 ou L3). L'imbrication des images consiste à créer une séquence ordonnée de 4 nouvelles images, dites images imbriquées, qui contiennent chacune un des quadrants de l'image basse fréquence L3. Avantageusement, les quadrants sont imbriqués tel qu'illustré sur la figure 7. L'image imbriquée d'ordre 1, référencée I1, comprend un quadrant appartenant à l'image L3 et trois quadrants appartenant à l'image H1, l'image imbriquée d'ordre 2, référencée 12, comprend un quadrant appartenant à l'image L3 et trois quadrants appartenant à l'image H2, l'image imbriquée d'ordre 3, référencée 13, comprend un quadrant appartenant à l'image L3 et trois quadrants appartenant à l'image H3, et l'image imbriquée d'ordre 4, référencée 14, comprend un quadrant appartenant à chacune des images L3, H1, H2 et H3. Selon un autre mode de réalisation illustré sur la figure 8, chaque image imbriquée contient un quadrant appartenant à chacune des quatre images issues du filtrage temporel. Les quadrants peuvent être imbriqués de toute autre façon pourvu que chacune des quatre images imbriquées contienne un seul quadrant de l'image basse fréquence et que les quadrants de l'image basse fréquence soient répartis entre les quatre images imbriquées. Plus généralement, dans le cas d'une image basse fréquence et de N images haute fréquence divisées en N+1 parties, ces parties peuvent être imbriquées de n'importe quelle façon pourvu que chacune des N+1 images imbriquées contienne une seule partie de l'image basse fréquence et que les N+1 parties de l'image basse fréquence soient réparties entre les N+1 images imbriquées. En effet, l'image basse fréquence contient plus d'informations utiles à la reconstruction de la séquence que les images haute fréquence, i.e. son énergie est supérieure à celle des autres images. Afin d'améliorer la qualité de reconstruction, elle doit donc être codée de manière plus précise. En procédant selon l'invention, chaque quadrant de L3 est codé avec un nombre de bits plus important que si les quatre quadrants de L3 étaient codés dans la même image.
Selon un autre mode de réalisation, un GOP de taille 2 est utilisé tel qu'illustré sur la figure 4. L'analyse temporelle génère comme précédemment deux images respectivement basse et haute fréquence référencées L et H. Chacune des deux images est alors divisée en deux parties référencées X W et X_E sur la figure 9, où X est la référence à l'une des deux images L ou H. La figure 10 représente les deux images créées, respectivement Il d'ordre 1 et 12 d'ordre 2, après imbrication selon un motif particulier. Lorsque l'image source comprend plusieurs composantes les images Lc et Hc associées à une composante C donnée sont imbriquées entre elles. Cette étape d'imbrication est appliquée indépendamment sur chaque composante. Cependant, le motif d'imbrication, après mise à l'échelle en fonction du format de l'image source, doit être le même pour toutes les composantes. Dans le cas d'une séquence au format 420, si la première image imbriquée, i.e. l'image d'ordre 1, relative à la composante de luminance Y comprend une partie de largeur K pixels appartenant à l'image Ly et une partie de largeur M pixels appartenant à l'image Hy, alors la première image imbriquée, i.e. l'image d'ordre 1, relative à une composante de chrominance U comprend une partie de largeur K/2 appartenant à l'image Lu et une partie de largeur M/2 appartenant à l'image Hu. Il en est de même pour la deuxième image imbriquée, i.e. l'image d'ordre 2, et pour la deuxième composante de chrominance V. La même méthode est appliquée dans le cas d'un GOF de taille supérieure à 2. Ainsi à chaque image imbriquée d'un ordre donné relative à une composante donnée correspond une image imbriquée du même ordre pour chacune des autres composantes, les images imbriquées du même ordre correspondant à chacune des composantes étant imbriquées selon le même motif.
Préférentiellement, les frontières entre les différentes parties peuvent être modifiées afin de diminuer certains effets de flou. La position de la frontière entre deux parties d'image est modifiée de GOF en GOF selon un motif particulier tel qu'illustré sur la figure 11 pour un GOF de 2 images. A partir d'une position initiale, la frontière peut être déplacée d'un ou plusieurs pixels vers la droite à chaque nouveau GOF jusqu'à une position déterminée puis déplacée d'un ou plusieurs pixels vers la gauche jusqu'à la position initiale et ainsi de suite. Selon un autre mode de réalisation, la frontière peut être déplacée d'un nombre constant de pixels vers la droite à l'intérieur d'une fenêtre de déplacement de largeur finie centrée sur la colonne de pixels médiane. Lorsque la position courante de la frontière incrémentée du nombre constant de pixels sort de la fenêtre de déplacement, alors elle se repositionne au début de la fenêtre. Dans le cas d'une séquence d'images au format HD, une taille de fenêtre de déplacement de 146 pixels et un nombre constant de 40 pixels semblent bien adaptés à une composante de luminance. Dans le cas, d'un format 420, ces valeurs sont divisées par deux pour les composantes de chrominance. De manière générale, pour un GOF de plus de 2 images, les frontières sont déplacées de GOF en GOF, chacune des frontières étant déplacée selon une direction spatiale donnée. Le processus de déplacement de la frontière doit être connu par les procédés de codage et de décodage. A cet effet, on peut créer une structure multi- GOF qui comprend un nombre déterminé de GOFs tel qu'illustrée sur la figure 12. La séquence d'images source est ainsi divisée en multi-GOF eux mêmes divisés en GOFs. Au début de chaque multi-GOF, la position de la frontière est réinitialisée. Selon un autre mode de réalisation un signal de synchronisation est inséré dans le flux de données de manière non périodique. Lorsque le signal de synchronisation est décodé par le procédé de décodage, la position de la frontière est alors réinitialisée.
En ce référant de nouveau à la figure 3, lors d'une étape 17, les images imbriquées relatives à une composante donnée sont codées indépendamment les unes des autres, le même nombre de bits étant utilisé pour coder chaque image imbriquée. L'étape 17 comprend généralement une étape 12 d'analyse spatiale permettant de réduire la redondance spatiale des images et une étape 13 de codage entropique. Avantageusement, l'étape de codage 17 est basée sur la norme JPEG2000 décrite dans le document ISO/IEC 15444-1: 2002 intitulé "Information Technology - JPEG 2000 image coding System" utilisant notamment une transformée en ondelettes discrète et un codeur entropique par plans de bits. Ce procédé permet notamment d'atteindre un débit cible au bit près. Avantageusement, le débit peut être réduit en supprimant une partie des données dans les en-têtes du flux binaire généré par un procédé de codage basé sur JPEG2000. Par exemple, les informations relatives à la taille de l'image n'ont pas besoin d'être transmises avec chaque image, mais peuvent être transmises une seule fois par GOF ou par multi-GOF, par exemple au début. Dans le cas particulier d'images source comprenant plusieurs composantes, l'étape 17 consiste à coder indépendamment les unes des autres, pour une composante donnée, les images imbriquées. Toutefois les images imbriquées correspondantes relatives à toutes les composantes peuvent être codées ensemble, par exemple par un procédé de codage basé sur JPEG2000. L'imbrication des images basse et haute fréquence permet notamment d'améliorer la qualité de reconstruction après décodage et donc l'efficacité de codage.
Lors d'une étape 14, les vecteurs de mouvements éventuellement estimés lors de l'étape 11 sont codés par exemple par un procédé de codage à longueur variable (VLC - Variable Length Coding en anglais) ou encore par un procédé de codage entropique.
Lors d'une étape 15, les données relatives notamment aux vecteurs de mouvement et aux coefficients spatio-temporels sont combinées afin de créer 20 un unique flux de données.
Les étapes 11, 14 et 15 sont optionnelles. En effet, selon l'invention, le procédé de filtrage temporel peut ne pas utiliser de compensation de mouvement.
L'invention concerne par ailleurs un procédé de décodage permettant de décoder un flux de données généré lors du codage d'un GOF de (N+1) images par le procédé de codage selon l'invention. Le procédé de décodage est illustré par la figure 13. L'étape 41 du procédé permet de séparer dans le flux les données de mouvement et les données relatives aux coefficients spatio-temporels. Une étape 42 permet de décoder la partie du flux de données relative aux coefficients spatio-temporels. Généralement, l'étape 42 comprend une étape 420 de décodage entropique et une étape 421 de synthèse spatiale. Dans le cas où une étape 17 de codage basée sur la norme JPEG2000 a été utilisée par le procédé de codage alors une étape de décodage 42 également basée sur JPEG2000 est utilisée. Cette étape permet de générer N+1 images imbriquées. Le procédé comprend également une étape 43 pour désimbriquer les données afin de générer une image basse fréquence et N images haute fréquence. Si le flux de données comprend des données relatives au mouvement alors celles ci sont décodées lors d'une étape 44 pour générer des vecteurs de mouvements. Ces vecteurs et les images basse et haute fréquence sont utilisés par une étape 45 de synthèse temporelle effectuant un filtrage temporel afin de générer une séquence d'images décodées. Dans le cas où les images source utilisées pour générer le flux de données comprennent plusieurs composantes, l'étape 43 génère une image basse fréquence et N images haute fréquence par composante.
L'invention concerne en outre un dispositif de codage référencé 2 sur la figure 14 comprenant un module 21 d'analyse temporelle de la séquence d'images source, comprenant au moins une composante, générant une image basse fréquence et N image haute fréquence pour chaque composante. Ce module peut éventuellement être relié à un module d'estimation de mouvement 22 qui lui fournit des vecteurs de mouvement. Dans ce cas, le dispositif de codage comprend également un module de codage des vecteurs de mouvement 23. Ce module 23 peut mettre en oeuvre un processus de codage basé par exemple sur un codage à longueur variable ou un codage arithmétique. Le dispositif 2 comprend, en outre, un module de traitement24 qui permet de diviser en N+1 parties les images haute et basse fréquence et d'imbriquer les données relatives à celles-ci selon le procédé décrit ci-dessus afin de générer une séquence ordonnée de N+1 images imbriquées. Le dispositif 2 comprend également au moins un dispositif de codage d'images fixe 25 pouvant lui-même comprendre un module d'analyse spatiale 250 et un codeur entropique 251. Le dispositif 2 comprend par ailleurs un module de multiplexage permettant de combiner les flux de données issus des modules de codage 23 et 25 afin de créer un unique flux de données. Les modules 22, 23 et 26 sont optionnels. En effet, l'analyse temporelle de la séquence peut ne pas utiliser de module de compensation de mouvement.
Avantageusement, le dispositif 25 de codage d'images fixes peut être basé sur le standard JPEG2000 utilisant notamment une transformée en ondelettes discrète et un module de codage entropique par plans de bits. Selon l'invention un autre dispositif de codage d'images fixes peut être utilisé. Selon un mode de réalisation, le dispositif 25 permet de coder ensemble les images imbriquées de même ordre relatives aux différentes composantes (par exemple Y, U et V) ensemble. Selon un autre mode de réalisation, un dispositif de codage 25 est utilisé pour coder les images imbriquées relatives à la composante de luminance Y et un second dispositif de codage 25 est utilisé pour coder ensemble les images imbriquées de même ordre relatives aux composantes de chrominance U et V. L'invention concerne en outre un dispositif de décodage 3 illustré sur la figure 15 permettant de décoder un flux de données généré lors du codage d'un GOF de (N+1) images par le procédé de codage selon l'invention. Le flux de données reçu par dispositif 3 est transmis à l'entrée d'un module de démultiplexage 31 permettant de séparer les données relatives aux coefficients spatio-temporels et les données relatives aux vecteurs de mouvement. Les données de mouvements sont transmises à un module de décodage du mouvement 32 (par exemple dispositif de décodage entropique). Les données relatives aux coefficients spatio-temporels sont ensuite transmis à un dispositif de décodage d'image fixes 33 pouvant lui-même comprendre un décodeur entropique 330 et un module de synthèse spatiale 331. Ce dispositif 33 réalise les opérations inverses du dispositif de codage d'image fixes 25 du codeur. Notamment, il reconstruit les images imbriquées correspondant aux différentes bandes de fréquence temporelles.
Les images imbriquées ainsi décodées sont ensuite dés-imbriquées par un module de traitement 34 de manière à générer une image basse fréquence et N images haute fréquence. Ce module 34 met en oeuvre le processus inverse du processus mis en oeuvre par le module de traitement 24 du dispositif de codage 2. Dans le cas où les images source utilisées pour générer le flux de données reçu par les dispositif 3 comprennent plusieurs composantes, le module de traitement 34 génère une image basse fréquence et N images haute fréquence par composante. Les vecteurs de mouvements décodés par le module 32 et les images basse et haute fréquences issus du module 34 sont ensuite transmis à un module 35 de synthèse temporelle qui reconstruit les images de sortie à partir de filtres de synthèse temporelle.
Eventuellement, le circuit de synthèse temporelle est relié à un circuit de post-traitement dont la sortie est la sortie du décodeur. II s'agit par exemple de post-filtrage permettant de réduire les défauts tels que les effets de bloc. Dans le cas où le dispositif de codage associé au dispositif 2 ne comprend pas les modules 22, 23 et 26, alors le dispositif 3 ne comprend pas les modules 31 et 32.
Bien entendu, l'invention n'est pas limitée aux exemples de réalisation mentionnés ci-dessus. En particulier, l'homme du métier peut apporter toute variante dans les modes de réalisation exposés et les combiner pour bénéficier de leurs différents avantages. La frontière entre les deux images L et H, dans le cas d'un GOF de deux images, peut par exemple être horizontale au lieu de verticale.
Une application de l'invention concerne notamment les caméras sans fils utilisées dans le domaine du cinéma numérique.

Claims (1)

16 Revendications
1. Procédé de codage de N+1 images comprenant au moins une composante, ledit procédé comprenant une étape (10) d'analyse temporelle desdites N+1 images générant, pour chaque composante, une image basse fréquence et N images haute fréquence caractérisé en ce qu'il comprend en outre les étapes suivantes: diviser (16), pour chaque composante, chacune desdites N+1 images basse et haute fréquence en N+1 parties; imbriquer (16), pour chaque composante, lesdites N+1 images basse et haute fréquence de manière à générer une séquence ordonnée de N+1 images imbriquées et de telle sorte que les N+1 parties de ladite image basse fréquence soient réparties entre lesdites N+1 images imbriquées, chacune desdites N+1 images imbriquées comprenant une seule partie de ladite image basse fréquence; et coder (17), pour chaque composante, lesdites N+ 1 images imbriquées indépendamment les unes des autres, chacune desdites images imbriquées étant codées avec un même nombre de bits.
2. Procédé selon la revendication 1, caractérisé en ce que chacune desdites N+1 images comprend au moins deux composantes et en ce que l'étape (17) pour coder lesdites N+1 images imbriquées consiste à coder ensemble les images imbriquées de même ordre relatives auxdites au moins deux composantes.
3. Procédé selon la revendication 1 ou 2, caractérisé en ce que l'étape (17) de codage est basée sur la norme de codage JPEG2000.
4. Procédé selon l'une des revendications 1 à 3, caractérisé en ce que l'étape d'analyse temporelle (10) consiste en un filtrage temporel compensé en mouvement.
5. Procédé selon la revendication 4, caractérisé en ce que le filtrage temporel utilise un filtre appartenant au groupe de filtres comprenant: le filtre de type Haar; et le filtre de type Daubechies 5-7.
6. Procédé selon l'une des revendications 1 à 5, caractérisé en ce que ledit procédé est appliqué successivement à au moins deux groupes de N+1 images; chacune desdites images étant divisées en N+1 parties séparées par M frontières, et en ce que chacune desdites M frontières est déplacée selon une direction spatiale donnée entre lesdits au moins deux groupes d'images.
7. Procédé selon la revendication 6, caractérisé en ce que N est égal à 1 et M est égal à 1.
8. Procédé selon la revendication 7, caractérisé en ce qu'au début de chacun desdits au moins deux groupes d'images ladite frontière est déplacée, au sein d'une fenêtre de déplacement prédéfinie, d'un nombre constant de pixels et en ce que si ladite frontière sort de ladite fenêtre de déplacement, ladite frontière est déplacée à une position prédéterminée de ladite fenêtre de déplacement.
9. Procédé de décodage d'images codées selon le procédé de codage selon l'une des revendications 1 à 8, les images codées se présentant sous la forme d'un flux de données, caractérisé en ce qu'il comprend les étapes suivantes: décoder (42) ledit flux ou une partie dudit flux de manière à générer, pour chaque composante, N+1 images imbriquées; désimbriquer (43), pour chaque composante, lesdites N+1 images imbriquées de manière à générer une image basse fréquence et N images haute fréquence; et
A S
effectuer une synthèse temporelle (45) desdites N+1 images basse et haute fréquence de manière à générer N+1 images décodées.
10. Dispositif de codage pour la mise en oeuvre du procédé selon l'une des revendications 1 à 8, ledit dispositif comprenant un module (21) d'analyse temporelle desdites N+1 images générant, pour chaque composante, une image basse fréquence et N images haute fréquence caractérisé en ce qu'il comprend en outre: un module de traitement (24) pour diviser, pour chaque composante, chacune desdites N+1 images basse et haute fréquence en N+1 parties et imbriquer lesdites N+1 images basse et haute fréquence de manière à générer une séquence ordonnée de N+1 images imbriquées et de telle sorte que les N+1 parties de ladite image basse fréquence soient réparties entre lesdites N+1 images imbriquées, chacune desdites N+1 images imbriquées comprenant une seule partie de ladite image basse fréquence; et au moins un module de codage (25) pour coder, pour chaque composante, lesdites N+1 images imbriquées indépendamment les unes des autres, chacune desdites images imbriquées étant codées avec un même nombre de bits.
11. Dispositif de codage selon la revendication 10 caractérisé en ce que ledit au moins un module de codage est un codeur d'images basé sur la norme JPEG2000.
12. Dispositif de décodage pour la mise en oeuvre du procédé selon la revendication 9, caractérisé en ce qu'il comprend: un module de décodage (33) dudit flux ou d'une partie dudit flux de manière à générer, pour chaque composante, N+1 images imbriquées; un module de traitement (34) desdites N+1 images imbriquées de manière à générer une image basse fréquence et N images haute fréquence; et un module (35) de synthèse temporelle desdites N+1 images basse et haute fréquence de manière à générer N+1 images décodées.
FR0505732A 2005-06-06 2005-06-06 Procede et dispositif de codage et de decodage d'une sequence d'images Pending FR2886787A1 (fr)

Priority Applications (5)

Application Number Priority Date Filing Date Title
FR0505732A FR2886787A1 (fr) 2005-06-06 2005-06-06 Procede et dispositif de codage et de decodage d'une sequence d'images
US11/437,495 US7672520B2 (en) 2005-06-06 2006-05-19 Method and device for coding and decoding a sequence of images
EP06114445A EP1732330A1 (fr) 2005-06-06 2006-05-24 Procédé et appareil pour le codage et le décodage d'un séquence d'images
CN2006100845094A CN1878304B (zh) 2005-06-06 2006-05-25 编码和解码图像序列的方法和设备
JP2006157340A JP4880373B2 (ja) 2005-06-06 2006-06-06 画像の符号化方法、符号化画像の復号化方法、画像の符号化装置および符号化画像の復号化装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0505732A FR2886787A1 (fr) 2005-06-06 2005-06-06 Procede et dispositif de codage et de decodage d'une sequence d'images

Publications (1)

Publication Number Publication Date
FR2886787A1 true FR2886787A1 (fr) 2006-12-08

Family

ID=35502311

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0505732A Pending FR2886787A1 (fr) 2005-06-06 2005-06-06 Procede et dispositif de codage et de decodage d'une sequence d'images

Country Status (5)

Country Link
US (1) US7672520B2 (fr)
EP (1) EP1732330A1 (fr)
JP (1) JP4880373B2 (fr)
CN (1) CN1878304B (fr)
FR (1) FR2886787A1 (fr)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2852179A1 (fr) * 2003-03-06 2004-09-10 Thomson Licensing Sa Procede de codage d'une image video
FR2886787A1 (fr) * 2005-06-06 2006-12-08 Thomson Licensing Sa Procede et dispositif de codage et de decodage d'une sequence d'images
FR2896371B1 (fr) * 2006-01-19 2008-11-07 Canon Kk Procede et dispositif de traitement d'une sequence d'images numeriques au format extensible
US8306121B2 (en) * 2008-03-17 2012-11-06 Ati Technologies Ulc Method and apparatus for super-resolution of images
US9973780B2 (en) * 2013-10-31 2018-05-15 Microsoft Technology Licensing, Llc Scaled video for pseudo-analog transmission in spatial domain
EP3136736A1 (fr) * 2015-08-25 2017-03-01 Thomson Licensing Procédé de mappage de tonalité inverse d'une séquence d'images
CN108769697B (zh) * 2018-06-08 2020-11-03 武汉精测电子集团股份有限公司 基于时间交织流水线架构的jpeg-ls压缩***及方法
CN113079378B (zh) * 2021-04-15 2022-08-16 杭州海康威视数字技术股份有限公司 图像处理方法、装置和电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0499303A2 (fr) * 1991-02-13 1992-08-19 Ampex Systems Corporation Procédé et appreil pour mélanger et démélanger les données
US6587588B1 (en) * 1999-03-16 2003-07-01 At&T Corp. Progressive image decoder for wavelet encoded images in compressed files and method of operation

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5881176A (en) * 1994-09-21 1999-03-09 Ricoh Corporation Compression and decompression with wavelet style and binary style including quantization by device-dependent parser
JPH08126014A (ja) * 1994-10-26 1996-05-17 Sony Corp 画像信号処理方法及び画像信号処理装置
US6674911B1 (en) * 1995-09-14 2004-01-06 William A. Pearlman N-dimensional data compression using set partitioning in hierarchical trees
CN1115045C (zh) * 1995-09-29 2003-07-16 松下电器产业株式会社 对媒体进行位流交错录放的方法及装置
EP0944269B1 (fr) * 1996-12-04 2002-11-13 Matsushita Electric Industrial Co., Ltd. Disque optique pour enregistrement optique d'images tridimensionnelles et de haute resolution, dispositif de reproduction a disque optique, et dispositif d'enregistrement a disque optique
EP1405521B1 (fr) * 2001-06-26 2005-01-26 Koninklijke Philips Electronics N.V. Procede de codage video
CN100336393C (zh) * 2001-11-20 2007-09-05 汤姆森许可公司 用于改善的分辨率的低比特率压缩格式变换
CN1141835C (zh) * 2002-04-19 2004-03-10 中山大学 一种保护多媒体视频数据的方法
JP2006521039A (ja) * 2003-02-25 2006-09-14 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ オーバコンプリートウェーブレット展開での動き補償時間フィルタリングを使用した3次元ウェーブレットビデオ符号化
US20060159173A1 (en) * 2003-06-30 2006-07-20 Koninklijke Philips Electronics N.V. Video coding in an overcomplete wavelet domain
WO2005029846A1 (fr) * 2003-09-23 2005-03-31 Koninklijke Philips Electronics, N.V. Algorithme de debruitage video utilisant un filtrage temporel a compensation du mouvement en bande
FR2886787A1 (fr) * 2005-06-06 2006-12-08 Thomson Licensing Sa Procede et dispositif de codage et de decodage d'une sequence d'images

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0499303A2 (fr) * 1991-02-13 1992-08-19 Ampex Systems Corporation Procédé et appreil pour mélanger et démélanger les données
US6587588B1 (en) * 1999-03-16 2003-07-01 At&T Corp. Progressive image decoder for wavelet encoded images in compressed files and method of operation

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
BENETIERE M ET AL: "Scalable compression of 3d medical datasets using a (2D+T) wavelet video coding scheme", SIGNAL PROCESSING AND ITS APPICATIONS, SIXTH INTERNATIONAL, SYMPOSIUM ON. 2001 AUG. 16-16, 2001, PISCATAWAY, NJ, USA,IEEE, vol. 2, 16 August 2001 (2001-08-16), pages 537 - 540, XP010557106, ISBN: 0-7803-6703-0 *
TAUBMAN D ED - INSTITUTE OF ELECTRICAL AND ELECTRONICS ENGINEERS: "Remote browsing of JPEG2000 images", PROCEEDINGS 2002 INTERNATIONAL CONFERENCE ON IMAGE PROCESSING. ICIP 2002. ROCHESTER, NY, SEPT. 22 - 25, 2002, INTERNATIONAL CONFERENCE ON IMAGE PROCESSING, NEW YORK, NY : IEEE, US, vol. VOL. 2 OF 3, 22 September 2002 (2002-09-22), pages 229 - 232, XP010607302, ISBN: 0-7803-7622-6 *

Also Published As

Publication number Publication date
JP4880373B2 (ja) 2012-02-22
US7672520B2 (en) 2010-03-02
US20060274958A1 (en) 2006-12-07
CN1878304A (zh) 2006-12-13
CN1878304B (zh) 2010-05-12
EP1732330A1 (fr) 2006-12-13
JP2006345521A (ja) 2006-12-21

Similar Documents

Publication Publication Date Title
EP1721470B1 (fr) Procede de codage et de decodage d&#39;une sequence d&#39;images par analyse temporelle hierarchique
US9973757B2 (en) Content adaptive predictive and functionally predictive pictures with modified references for next generation video coding
US8385665B2 (en) Image processing apparatus, image processing method, program and semiconductor integrated circuit
KR101789954B1 (ko) 차세대 비디오 코딩을 위한 콘텐츠 적응적 이득 보상된 예측
EP0675652B1 (fr) Procédé et circuit d&#39;estimation de mouvement entre images à deux trames entrelacées, et dispositif de codage de signaux numériques comprenant un tel circuit
FR2886787A1 (fr) Procede et dispositif de codage et de decodage d&#39;une sequence d&#39;images
WO2005086488A1 (fr) Procede de codage et de decodage d&#39;une sequence d&#39;images codee avec echelonnabilite spatiale et temporelle
WO2007020230A2 (fr) Procede de codage et de decodage d&#39;images video avec echelonnabilite spatiale
US20060062298A1 (en) Method for encoding and decoding video signals
FR2677836A1 (fr) Codeur-decodeur sous bandes de signaux de television a niveaux compatibilite differents.
US20060013311A1 (en) Video decoding method using smoothing filter and video decoder therefor
JP2007184800A (ja) 画像符号化装置、画像復号化装置、画像符号化方法及び画像復号化方法
JP4382284B2 (ja) サブバンドの符号化/復号
KR20150068402A (ko) 동영상 압축 방법
EP4365820A1 (fr) Réseau de super-résolution vidéo, et procédé et dispositif de traitement de codage, décodage et super-résolution vidéo
KR20040077777A (ko) 드리프트-없는 비디오 엔코딩 및 디코딩 방법, 및 대응장치들
CN115689917A (zh) 一种基于深度学习的高效时空超分辨率视频压缩复原方法
Lee et al. Convolution neural network based video coding technique using reference video synthesis
FR2887711A1 (fr) Procede de codage et decodage hierarchique
US20060159176A1 (en) Method and apparatus for deriving motion vectors of macroblocks from motion vectors of pictures of base layer when encoding/decoding video signal
Meyer et al. Learned wavelet video coding using motion compensated temporal filtering
FR2661062A2 (fr) Procede et dispositif de codage et de decodage compatible d&#39;images de television de resolutions differentes.
Matsuo et al. Super-Resolved and Blurred Decoded Pictures for Improving Coding Efficiency in Inter-Frame Prediction
CN118433404A (zh) 视频解码方法、视频编码方法及译码设备
Nakachi et al. A study on non-octave scalable coding using motion compensated inter-frame wavelet transform