FR3024582A1 - Gestion de la perte de trame dans un contexte de transition fd/lpd - Google Patents

Gestion de la perte de trame dans un contexte de transition fd/lpd Download PDF

Info

Publication number
FR3024582A1
FR3024582A1 FR1457356A FR1457356A FR3024582A1 FR 3024582 A1 FR3024582 A1 FR 3024582A1 FR 1457356 A FR1457356 A FR 1457356A FR 1457356 A FR1457356 A FR 1457356A FR 3024582 A1 FR3024582 A1 FR 3024582A1
Authority
FR
France
Prior art keywords
frame
digital signal
segment
coded
additional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR1457356A
Other languages
English (en)
Inventor
Julien Faure
Stephane Ragot
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
Orange SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Orange SA filed Critical Orange SA
Priority to FR1457356A priority Critical patent/FR3024582A1/fr
Priority to KR1020177005826A priority patent/KR102386644B1/ko
Priority to EP15757533.3A priority patent/EP3175444B1/fr
Priority to ES15757533.3T priority patent/ES2676834T3/es
Priority to CN202110612907.3A priority patent/CN113571070B/zh
Priority to US15/329,428 priority patent/US10600424B2/en
Priority to CN201580041610.9A priority patent/CN106575505B/zh
Priority to PCT/FR2015/052075 priority patent/WO2016016567A1/fr
Priority to JP2017504685A priority patent/JP6687599B2/ja
Publication of FR3024582A1 publication Critical patent/FR3024582A1/fr
Priority to US16/782,539 priority patent/US11475901B2/en
Priority to JP2020022302A priority patent/JP7026711B2/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/20Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

L'invention concerne un procédé de décodage d'un signal numérique codé selon un codage prédictif et selon un codage par transformée, comprenant les étapes suivantes : - décodage (304) prédictif d'une trame précédente du signal numérique, codée par un ensemble de paramètres de codage prédictif ; - détection (302) de la perte d'une trame courante du signal numérique codé; - génération (312) par prédiction, à partir d'au moins un paramètre de codage prédictif codant la trame précédente, d'une trame de remplacement de la trame courante ; - génération (316) par prédiction, à partir d'au moins un paramètre de codage prédictif codant la trame précédente, d'un segment supplémentaire de signal numérique ; - stockage (317) temporaire dudit segment supplémentaire de signal numérique.

Description

Gestion de la perte de trame dans un contexte de transition FD/LPD La présente invention concerne le domaine du codage/décodage des signaux numériques en particulier pour la correction de perte de trame.
L'invention s'applique avantageusement au codage/décodage de sons pouvant contenir de la parole et de la musique mélangés ou en alternance. Pour coder efficacement les sons de parole à bas débit, les techniques de type CELP (« Code Excited Linear Prediction ») sont préconisées. Pour coder efficacement les sons musicaux, on préconise plutôt les techniques de codage par transformée.
Les codeurs de type CELP sont des codeurs prédictifs. Ils ont pour but de modéliser la production de la parole à partir de divers éléments : une prédiction linéaire à court-terme pour modéliser le conduit vocal, une prédiction à long-terme pour modéliser la vibration des cordes vocales en période voisée, et une excitation dérivée d'un dictionnaire fixe (bruit blanc, excitation algébrique) pour représenter l' "innovation" qui n'a pas pu être modélisée.
Les codeurs par transformée tels que MPEG AAC, AAC-LD, AAC-ELD ou ITU-T G.722.1 Annexe C utilisent des transformées à échantillonnage critique afin de compacter le signal dans le domaine transformé. On appelle « transformée à échantillonnage critique », une transformée pour laquelle le nombre de coefficients dans le domaine transformé est égal au nombre d'échantillons temporels dans chaque trame analysée.
Une solution pour coder efficacement un signal de contenu mixte parole/musique consiste à sélectionner au cours du temps la meilleure technique entre au moins deux modes de codage, l'un de type CELP, l'autre de type transformée. C'est le cas par exemple des codecs 3GPP AMR-WB + et MPEG USAC (pour "Unified Speech Audio Coding" en anglais). Les applications visées par AMR-WB+ et USAC ne sont pas conversationnelles, mais correspondent à des services de diffusion et stockage, sans contraintes fortes sur le retard algorithmique. La version initiale du codec USAC, appelée RMO (Reference Model 0), est décrite dans l'article de M. Neuendorf et al., A Novel Scheme for Low Bitrate Unified Speech and Audio Coding - MPEG RMO, 7-10 May 2009, 126th AES Convention. Ce codec RMO alterne entre plusieurs modes de codage: - Pour les signaux de type parole: modes LPD (pour "Linear Predictive Domain" en anglais) comprenant deux modes différents dérivés du codage AMR-WB+: - Un mode ACELP - Un mode TCX (pour « Transform Coded eXcitation » en anglais) appelé wLPT (pour "weighted Linear Predictive Transform" en anglais) utilisant une transformée de type MDCT (contrairement au codec AMR-WB+) qui utilise une transformée FFT. - Pour les signaux de type musique: mode FD (pour "Frequency Domain" en anglais) utilisant un codage par transformée MDCT (pour "Modified Discrete Cosine Transform" en anglais) de type MPEG AAC (pour "Advanced Audio Coding" en anglais) sur 1024 échantillons.
Dans le codec USAC, les transitions entre modes LPD et FD sont cruciales pour assurer une qualité suffisante sans défaut de commutation, sachant que chaque mode (ACELP, TCX, FD) a une "signature" spécifique (en termes d'artefacts) et que les modes FD et LPD sont de nature différentes - le mode FD repose sur un codage par transformée dans le domaine du signal, tandis que les modes LPD utilisent un codage linéaire prédictif dans le domaine perceptuellement pondéré avec des mémoires de filtre à gérer correctement. La gestion des commutations intermodes dans le codec USAC RMO est détaillée dans l'article de J. Lecomte et al., "Efficient cross fade windows for transitions Between LPC-based and non-LPC based audio coding", 7-10 May 2009, 126th AES Convention. Comme expliqué dans cet article, la difficulté principale réside dans les transitions entre modes LPD vers FD et vice versa. On ne retient ici que le cas des transitions d'ACELP vers FD. Pour bien en comprendre le fonctionnement, on rappelle ici le principe du codage par transformée MDCT au travers d'un exemple typique de réalisation. Au codeur la transformation MDCT se divise typiquement entre trois étapes, le signal étant découpé en trames de M échantillons avant codage MDCT: - Pondération du signal par une fenêtre appelé ici "fenêtre MDCT" de longueur 2M ; - Repliement temporel (ou "time-domain aliasing" en anglais) pour former un bloc de longueur M ; - Transformation DCT (pour "Discrete Cosine Transform" en anglais) de longueur M.
La fenêtre MDCT est divisée en 4 portions adjacentes de longueurs égales M/2, appelées ici "quarts" Le signal est multiplié par la fenêtre d'analyse puis les repliements sont effectués : le premier quart (fenêtré) est replié (c'est-à-dire inversé dans le temps et mis en recouvrement) sur le deuxième quart et le quatrième quart est replié sur le troisième.
Plus précisément, le repliement temporel d'un quart sur un autre est effectué de la façon suivante : le premier échantillon du premier quart est additionné (ou soustrait) au dernier échantillon du deuxième quart, le deuxième échantillon du premier quart est additionné (ou soustrait) à l'avant-dernier échantillon du deuxième quart, et ainsi de suite jusqu'au dernier échantillon du premier quart qui est additionné (ou soustrait) au premier échantillon du deuxième quart.
On obtient donc, à partir de 4 quarts, 2 quarts repliés où chaque échantillon est le résultat d'une combinaison linéaire de 2 échantillons du signal à coder. Cette combinaison linéaire induit un repliement temporel. Les 2 quarts repliés sont ensuite codés conjointement après transformation DCT (de type IV). Pour la trame suivante on se décale d'une moitié de fenêtre (soit 50% de recouvrement), les troisième et quatrième quarts de la trame précédente deviennent alors les premier et deuxième quarts de la trame courante. Après repliement, on envoie une deuxième combinaison linéaire des mêmes paires d'échantillons comme dans la trame précédente, mais avec des poids différents. Au décodeur, après transformation DCT inverse on obtient donc la version décodée de ces signaux repliés. Deux trames consécutives contiennent le résultat de 2 repliements différents des mêmes quarts, c'est à dire pour chaque paire d'échantillons on a le résultat de 2 combinaisons linéaires avec des poids différents mais connus : un système d'équation est donc résolu pour obtenir la version décodée du signal d'entrée, le repliement temporel peut être ainsi supprimé en utilisant 2 trames décodées consécutives.
La résolution des systèmes d'équations mentionnées peut en général être faite implicitement par dépliement, multiplication par une fenêtre de synthèse judicieusement choisie puis addition-recouvrement des parties communes. Cette addition-recouvrement assure en même temps la transition douce (sans discontinuité due aux erreurs de quantification) entre 2 trames décodées consécutives, en effet cette opération se comporte comme un fondu enchaîné. Quand la fenêtre pour le premier quart ou le quatrième quart est à zéro pour chaque échantillon, on parle d'une transformation MDCT sans repliement temporel dans cette partie de la fenêtre. Dans ce cas la transition douce n'est pas assurée par la transformation MDCT, elle doit être faite par d'autres moyens comme par exemple un fondu enchaîné extérieur. Il est à noter que des variantes de mise en oeuvre de la transformation MDCT existent, en particulier sur la définition de la transformée DCT, sur la façon de replier temporellement le bloc à transformer (par exemple, on peut inverser les signes appliqués aux quarts repliés à gauche et droite, ou replier les deuxième et troisième quart sur respectivement les premiers et quatrième quarts), etc. Ces variantes ne changent pas le principe de l'analyse-synthèse MDCT avec la réduction du bloc d'échantillons par fenêtrage, repliement temporel puis transformation et enfin fenêtrage, repliement et addition-recouvrement. Afin d'éviter les artefacts au moment des transitions entre le codage de type CELP et le codage de type MDCT, la demande de brevet internationale W02012/085451 propose une méthode pour coder une trame de transition. La trame de transition est définie comme la trame courante codée par transformée qui succède à une trame précédente codée par un codage prédictif. Selon la nouvelle méthode précitée, une partie de la trame de transition, par exemple une sous trame de 5 ms, dans le cas d'un codage coeur CELP à 12.8 kHz, et deux trames CELP supplémentaires de 4 ms chacune, dans le cas d'un codage coeur CELP à 16 kHz, sont codées par un codage prédictif restreint par rapport au codage prédictif de la trame précédente. Le codage prédictif restreint consiste à utiliser les paramètres stables de la trame précédente codée par un codage prédictif, comme par exemple les coefficients du filtre de prédiction linéaire et de ne coder que quelques paramètres minimaux pour la sous-trame supplémentaire dans la trame de transition. Comme la trame précédente n'a pas été codée avec un codage par transformée, l'annulation du repliement temporel dans la première partie de la trame est impossible. La demande de brevet W02012/085451 précitée propose en outre de modifier la première moitié de la fenêtre MDCT de manière à ne pas avoir de repliement temporel dans le premier quart normalement replié. Il est aussi proposé d'intégrer une partie de l'addition-recouvrement (aussi appelé « fondu enchaîné » ou encore « overlap-add » en anglais) entre la trame CELP décodée et la trame MDCT décodée en modifiant les coefficients de la fenêtre d'analyse/synthèse. En référence à la figure 4e de la demande précitée, les traits mixtes (lignes alternant des points et traits) correspondent aux lignes de repliement de codage MDCT (figure du haut) et aux lignes de dépliement de décodage MDCT (figure du bas). Sur la figure du haut, les lignes en gras séparent les trames de nouveaux échantillons à l'entrée du codeur. Le codage d'une nouvelle trame MDCT peut être commencé quand une trame ainsi définie de nouveaux échantillons d'entrée est entièrement disponible. Il est important de remarquer que ces lignes en gras au codeur ne correspondent pas à la trame courante mais au bloc de nouveaux échantillons arrivant pour chaque trame : la trame courante est en fait retardée de 5 ms qui correspondent à une anticipation, dénommée « lookahead » en anglais. Sur la figure du bas, les lignes en gras séparent les trames décodées à la sortie du décodeur. Au codeur, la fenêtre de transition est nulle jusqu'au point de repliement. Ainsi les coefficients de la partie gauche de la fenêtre repliée seront identiques à ceux de la fenêtre non repliée. La partie entre le point de repliement et la fin de la sous-trame CELP de transition (TR) correspond à une (demi-) fenêtre sinusoïdale. Au décodeur, après dépliement, la même fenêtre est appliquée au signal. Sur le segment entre le point de repliement et le début de la trame MDCT, les coefficients de la fenêtre correspondent à une fenêtre de forme sine. Pour assurer l'addition-recouvrement entre la sous trame CELP décodée et le signal issu de la MDCT, il suffit d'appliquer une fenêtre de type cos2 à la partie de la sous-trame CELP en recouvrement et de sommer cette dernière avec la trame MDCT. La méthode est à reconstruction parfaite. Toutefois, des trames de signal audio codé peuvent être perdues sur le canal entre le codeur et le décodeur. Les techniques de correction de perte de trames existantes sont les plus souvent très dépendantes du type de codage utilisé. Dans le cas du codage de la parole basé sur des technologies prédictives, de type CELP par exemple, la correction de perte de trame est souvent liée au modèle de parole. Par exemple, la norme G.722.2 de l'ITU-T, dans sa version de juillet 2003, propose de remplacer un paquet perdu en prolongeant le gain de prédiction à long terme en l'atténuant, et en prolongeant les fréquences de lignes spectrales (ISF en anglais pour « Immitance Spectral Frequencies »), représentant les coefficients A(z) du filtre LPC, en les faisant tendre vers leurs moyennes respectives. La période fondamentale (ou « pitch ») est aussi répétée. La contribution du dictionnaire fixe est quant à elle remplie avec des valeurs aléatoires. L'application de telles méthodes pour des décodeurs par transformée ou PCM nécessiterait une analyse de type CELP au niveau du décodeur, ce qui introduirait une complexité supplémentaire significative. On notera également que des méthodes plus avancées de correction de perte de trame lors d'un décodage CELP sont décrites dans la norme UIT-T G.718 pour les débits de 8 et 12 kbit/s ainsi qu'aux débits de décodage interopérable avec AMR-WB. Une autre solution est présentée dans la norme G.711 de l'ITU-T, qui décrit un codeur par transformée pour lequel l'algorithme de correction de perte de trame, traité dans la partie « Appendix I » consiste à trouver un délai tonal (une période fondamentale) dans le signal déjà décodé et à le répéter en appliquant une addition-recouvrement entre le signal déjà décodé et le signal répété. Cette addition avec recouvrement permet de gommer les artefacts audio mais nécessite un délai supplémentaire au décodeur (correspondant à la durée de l'addition-recouvrement) pour être mise en oeuvre. Dans le cas d'un codage par transformée, une technique répandue pour corriger une perte de trame consiste à répéter la dernière trame reçue. Une telle technique est mise en oeuvre dans plusieurs codeurs/décodeurs normalisés (G.719, G.722.1 et G.722.1C notamment). Par exemple, dans le cas du décodeur G.722.1, une transformée MLT (pour «Modulated Lapped Transform » en anglais), équivalente à une transformée MDCT, avec un recouvrement de 50% et une fenêtre de forme sinusoïdale, permet d'assurer une transition suffisamment lente entre la dernière trame perdue et la trame répétée pour gommer les artefacts liés à la simple répétition de la trame. Une telle technique est peu coûteuse mais a comme principal défaut l'incohérence entre le signal juste avant la perte de trame et le signal répété. Il en résulte une discontinuité de phase qui peut introduire des artefacts audio importants si la durée de recouvrement entre les deux trames est faible, comme tel est le cas lorsque les fenêtres utilisées pour la transformée MLT sont des fenêtres dites à faible retard. Au niveau du décodeur, selon les techniques existantes, lorsqu'une trame est manquante, une trame de remplacement est générée en utilisant un algorithme de masquage de paquet perdu PLC adapté (pour « PacketLoss Concealment » en anglais). On notera qu'en général un paquet peut contenir plusieurs trames, ainsi le terme PLC peut être ambigu, et il est ici repris pour indiquer la correction de la trame courante perdue. Par exemple, à la suite d'une trame CELP correctement reçue et décodée, si la trame suivante est perdue, une trame de remplacement basée sur un PLC adapté au codage CELP est utilisée, en exploitant les mémoires du codeur CELP. A la suite d'une trame MDCT correctement reçue et décodée, si la trame suivante est perdue, une trame de remplacement basée sur un PLC adapté au codage MDCT est générée. Dans le contexte de la transition entre trames CELP et MDCT, et en considérant que la trame de transition est composée d'une sous-trame CELP (qui est à la même fréquence d'échantillonnage que la trame CELP directement précédente) et d'une trame MDCT comportant une fenêtre MDCT modifiée annulant le repliement «à gauche », il existe des situations pour lesquelles les techniques existantes n'apportent aucune solution. Dans une première situation, une trame CELP précédente a été correctement reçue et décodée, une trame courante de transition est perdue et la trame suivante est une trame MDCT.
Dans ce cas, l'algorithme de PLC, après la réception de la trame CELP, ne sait pas que la trame perdue est une trame de transition et génère par conséquent une trame CELP de remplacement. Ainsi, tel que précédemment expliqué, la première partie repliée de la trame suivante MDCT ne peut pas être compensée et le délai entre les deux types de codeur ne peut pas être comblé avec la sous-trame CELP contenue dans la trame de transition (qui est perdue avec la trame de transition).
Aucune solution connue ne propose de traiter cette situation. Dans une deuxième situation, une trame précédente CELP à 12,8 kHz est correctement reçue et décodée, une trame CELP courante à 16 kHz est perdue, et la trame suivante est une trame de transition. L'algorithme de PLC génère alors une trame CELP à la fréquence de la dernière trame correctement reçue, soit 12,8 kHz, et la sous-trame CELP de transition (codée partiellement à partir de paramètres CELP de la trame CELP à 16 kHz perdue) ne peut pas être décodée. La présente invention vient améliorer cette situation. A cet effet, un premier aspect de l'invention concerne un procédé de décodage d'un signal numérique codé selon un codage prédictif et selon un codage par transformée, comprenant les étapes suivantes : - décodage prédictif d'une trame précédente du signal numérique, codée par un ensemble de paramètres de codage prédictif ; - détection de la perte d'une trame courante du signal numérique codé; - génération par prédiction, à partir d'au moins un paramètre de codage prédictif codant la trame précédente, d'une trame de remplacement de la trame courante ; - génération par prédiction, à partir d'au moins un paramètre de codage prédictif codant la trame précédente, d'un segment supplémentaire de signal numérique ; - stockage temporaire de ce segment supplémentaire de signal numérique. Ainsi, un segment supplémentaire de signal numérique est disponible à chaque fois qu'une trame CELP de remplacement est générée. Le décodage prédictif de la trame précédente englobe le décodage prédictif d'une trame CELP correctement reçue ou la génération d'une trame CELP de remplacement par un algorithme de PLC adapté au CELP.
D'une part, ce segment supplémentaire rend possible une transition entre un codage CELP et un codage par transformée, même dans le cas d'une perte de trame. En effet, dans la première situation décrite ci-dessus, la transition avec la trame MDCT suivante peut être assurée par le segment supplémentaire. Comme cela est décrit ci-après, le segment supplémentaire peut être ajouté à la trame MDCT suivante pour compenser la première partie repliée de cette trame MDCT grâce à un fondu enchaîné sur la zone contenant le repliement temporel non annulé. Dans la deuxième situation décrite ci-dessus, le décodage de la trame de transition est rendu possible par l'utilisation du segment supplémentaire. En effet, s'il n'est pas possible décoder la sous-trame CELP de transition (indisponibilité des paramètres CELP de la trame précédente codée à 16 kHz), il est possible de la remplacer par le segment supplémentaire comme cela est décrit ci-après. D'autre part, les calculs relatifs à la gestion de la perte de trame et à la transition sont répartis dans le temps. En effet, le segment supplémentaire est généré puis stocké pour chaque trame CELP de remplacement générée. Le segment de transition est donc généré dès qu'une perte de trame est détectée, sans attendre qu'une transition soit ultérieurement détectée. La transition est donc anticipée à chaque perte de trame, ce qui évite d'avoir à gérer un « pic de complexité » au moment où une nouvelle trame correcte est reçue et décodée. Dans un mode de réalisation, le procédé comporte en outre les étapes suivantes : - réception d'une trame suivante de signal numérique codé comprenant au moins un segment codé par transformée ; et - décodage de la trame suivante comprenant une sous-étape d'addition avec recouvrement entre le segment supplémentaire de signal numérique et le segment codé par transformée. La sous-étape d'addition avec recouvrement rend possible un fondu-enchaîné du signal de sortie. Un tel fondu- enchaîné limite l'apparition d'artefacts sonores (par exemple de type « bruit métallique ») et assure une cohérence énergétique du signal. Dans un autre mode de réalisation, la trame suivante est entièrement codée selon un codage par transformée et la trame courante perdue est une trame de transition entre la trame précédente codée selon un codage prédictif et la trame suivante codée selon un codage par transformée.
Dans une variante, la trame précédente est codée selon un codage prédictif par un coeur de codeur prédictif fonctionnant à une première fréquence. Dans cette variante, la trame suivante est une trame de transition comprenant au moins une sous-trame codée selon un codage prédictif par un coeur de codeur prédictif fonctionnant à une deuxième fréquence distincte de la première fréquence. A cet effet, la trame de transition suivante peut comprendre un bit indiquant la fréquence du coeur de codage prédictif utilisé. Ainsi, le type de codage CELP (12,8 ou 16 kHz) utilisé dans la sous-trame CELP de transition peut être indiqué dans le train binaire de la trame de transition. L'invention ainsi prévoit de rajouter une indication systématique (un bit) dans une trame de transition, afin de permettre la détection d'une différence de fréquence de codage/décodage CELP entre la sous-trame CELP de transition et la trame CELP précédente. Dans un autre mode de réalisation, l'addition avec recouvrement est donnée par application de la formule suivante mettant en oeuvre une pondération linéaire : S(i) = B(i). (L/r) + (1 (L/i r)) .T(i) avec : r est un coefficient représentatif de la longueur du segment supplémentaire généré ; i un instant d'un échantillon de la trame suivante, compris entre 0 et L/r ; L la longueur de la trame suivante ; S(i) l'amplitude de la trame suivante après addition, pour l'échantillon i ; B(i) l'amplitude du segment décodé par transformée, pour l'échantillon i ; T(i) l'amplitude du segment supplémentaire de signal numérique, pour l'échantillon i. L'addition avec recouvrement peut donc être effectuée à partir de combinaisons linéaires et d'opérations simples à mettre en oeuvre. Le temps requis pour le décodage est ainsi réduit tout en sollicitant moins le ou les processeurs utilisés pour ces calculs. Dans des variantes, d'autres formes de fondu enchaîné pourront être mises en oeuvre sans changer le principe de l'invention. Dans un mode de réalisation, l'étape de génération par prédiction de la trame de remplacement comportant en outre une mise à jour de mémoires internes du décodeur, l'étape de génération par prédiction d'un segment supplémentaire de signal numérique peut comporter les sous-étapes suivantes : - copie dans une mémoire temporaire, des mémoires du décodeur mises à jour lors de l'étape de génération par prédiction de la trame de remplacement ; - génération du segment supplémentaire de signal numérique au moyen de la mémoire temporaire.
Ainsi, les mémoires internes du décodeur ne sont pas mises à jour pour la génération du segment supplémentaire. Par conséquent, la génération du segment de signal supplémentaire n'impacte pas le décodage de la trame suivante, dans le cas éventuel où la trame suivante est une trame CELP. En effet, si la trame suivante est une trame CELP, les mémoires internes du décodeur doivent correspondre aux états du décodeur à l'issue de la trame de remplacement. Dans un mode de réalisation, l'étape de génération par prédiction d'un segment supplémentaire de signal numérique comporte les sous-étapes suivantes : - génération par prédiction d'une trame supplémentaire, à partir d'au moins un paramètre de codage prédictif codant la trame précédente ; - extraction d'un segment de la trame supplémentaire.
Dans ce mode de réalisation, le segment supplémentaire de signal numérique correspond à la première moitié de la trame supplémentaire. Ainsi, l'efficacité du procédé est encore améliorée car les données temporaires de calcul utilisées pour la génération de la trame CELP de remplacement sont directement disponibles pour la génération de la trame CELP supplémentaire.
Typiquement, les registres et mémoires caches, sur lesquels sont stockés les données temporaires de calcul, peuvent ne pas être mis à jour afin de réutiliser directement ces données pour la génération de la trame CELP supplémentaire. Un deuxième aspect de l'invention vise un programme informatique comportant des instructions pour la mise en oeuvre du procédé selon le premier aspect de l'invention, lorsque ces instructions sont exécutées par un processeur. Un troisième aspect de l'invention vise un décodeur d'un signal numérique codé selon un codage prédictif et selon un codage par transformée, comprenant - - une unité de détection de la perte d'une trame courante du signal numérique ; - un décodeur prédictif comportant un processeur agencé pour effectuer les opérations suivantes : * décodage prédictif d'une trame précédente du signal numérique, codée par un ensemble de paramètres de codage prédictif ; * génération par prédiction, à partir d'au moins un paramètre de codage prédictif codant la trame précédente, d'une trame de remplacement de la trame courante ; * génération par prédiction, à partir d'au moins un paramètre de codage prédictif codant la trame précédente, d'un segment supplémentaire de signal numérique ; * stockage temporaire de ce segment supplémentaire de signal numérique dans une mémoire temporaire. Dans un mode de réalisation, le décodeur selon le troisième aspect de l'invention comprend en outre un décodeur par transformée comportant un processeur agencé pour effectuer les opérations suivantes : * réception d'une trame suivante de signal numérique codé comprenant au moins un segment codé par transformée ; et * décodage de la trame suivante comprenant une sous-étape d'addition avec recouvrement entre le segment supplémentaire de signal numérique et le segment codé par transformée.
Au niveau du codeur, l'invention peut comprendre l'insertion dans la trame de transition d'un bit d'information sur le coeur CELP employé pour le codage de la sous-trame de transition. D'autres caractéristiques et avantages de l'invention apparaîtront à l'examen de la description détaillée ci-après, et des dessins annexés sur lesquels: - la figure 1 illustre un décodeur audio selon un mode de réalisation de l'invention ; - la figure 2 illustre un décodeur CELP d'un décodeur audio, tel que le décodeur audio de la figure 1, selon un mode de réalisation de l'invention. - la figure 3 est un diagramme illustrant les étapes d'un procédé de décodage, mis en oeuvre par le décodeur audio de la figure 1, selon un mode de réalisation de l'invention ; - la figure 4 illustre un dispositif de calcul selon un mode de réalisation de l'invention. La figure 1 illustre un décodeur audio 100 selon un mode de réalisation de l'invention. Aucune structure de codeur audio n'est présentée. Toutefois, le signal audio numérique codé reçu par le décodeur selon l'invention peut être issu d'un codeur apte à coder un signal audio sous-forme de trames CELP, de trames MDCT et de trames de transition CELP/MDCT, tel que le codeur décrit dans la demande W02012/085451. A cet effet, une trame de transition, codée par transformée, peut comprendre en outre un segment (une sous-trame par exemple) codé par un codage prédictif. Le codeur peut en outre ajouter un bit dans la trame de transition pour identifier la fréquence du coeur CELP utilisé. L'exemple de codage CELP est donné à titre illustratif pour décrire tout type de codage prédictif. De même, l'exemple de codage MDCT est donné à titre illustratif pour décrire tout type de codage par transformée. Le décodeur 100 comprend une unité de réception 101 d'un signal audio numérique codé. Le signal numérique est codé sous forme de trames CELP, de trames MDCT et de trames de transition CELP/MDCT. Dans des variantes de l'invention, d'autres modes que les modes CELP et MDCT sont possibles, et d'autres combinaisons de modes sont donc envisageables, sans changer le principe de l'invention. Par ailleurs, le codage CELP pourra être remplacé par un autre type de codage prédictif, et le codage MDCT pourra être remplacé par un autre type de codage par transformée. Le décodeur 100 comprend en outre une unité de classification 102 apte à déterminer - en général par simple lecture du train binaire et interprétation des indications reçues du codeur - si une trame courante est une trame CELP, une trame MDCT, ou une trame de transition. En fonction de la classification de la trame courante, cette dernière peut être transmise à un décodeur CELP 103 ou à un décodeur MDCT 104 (ou au deux, dans le cas d'une trame de transition, la sous-trame CELP de transition étant transmise à une unité de décodage 105 décrite ci-après). De plus, dans le cas où la trame courante est une trame correcte (ou reçue) de transition et où le codage CELP peut fonctionner à au moins deux fréquences (12,8 et 16 kHz), l'unité de classification 102 pourra déterminer le type de codage CELP utilisé dans la sous-trame CELP supplémentaire - ce type de codage étant indiqué débit binaire en sortie du codeur. Un exemple de structure de décodeur CELP 103 est représenté en référence à la figure 2. Une unité de réception 201, pouvant comprendre une fonction de démultiplexage, est apte à recevoir des paramètres de codage CELP de la trame courante. Ces paramètres peuvent comprendre des paramètres d'excitation (vecteurs de gain, vecteur de dictionnaire fixe, vecteur de dictionnaire adaptatif par exemple) transmis à une unité de décodage 202 apte à générer une excitation. En outre, les paramètres de codage CELP peuvent comprendre des coefficients LPC représentés sous forme de LSF ou d'ISF par exemple. Les coefficients LPC sont décodés par une unité de décodage 203 apte à fournir les coefficients LPC à un filtre LPC de synthèse 205. Le filtre de synthèse 205, excité par l'excitation générée par l'unité 202, synthétise une trame (ou généralement une sous-trame) de signal numérique transmis à un filtre de dé-emphase ou désaccentuation 206 (fonction de la forme 1/(1-az1) avec par exemple a=0.68). En sortie du filtre de dé-emphase, le décodeur CELP 103 peut comprendre un post-traitement des basses fréquences 207 (ou « bass-post filter » en anglais) similaire à celui décrit dans la norme UIT-T G.718. Le décodeur CELP 103 comprend en outre un ré-échantillonnage 208 du signal synthétisé à la fréquence de sortie (la fréquence de sortie du décodeur MDCT 104), et une interface de sortie 209. Dans des variantes de l'invention, des post-traitements supplémentaires de la synthèse CELP peuvent être mis en oeuvre avant ou après ré-échantillonnage.
En outre, dans le cas où le signal numérique est décomposé en bandes de fréquences hautes et basses avant codage, le décodeur CELP 103 peut comprendre une unité de décodage des hautes fréquences 204, le signal basses fréquences étant décodé par les unités 202 à 208 décrites ci-avant. La synthèse CELP peut impliquer la mise à jour d'états internes de codeur CELP (ou la mise à jour de mémoires internes), tels que : - des états servant au décodage de l'excitation ; - la mémoire du filtre de synthèse 205 ; - la mémoire du filtre de dé-emphase 206 ; - des mémoires du post-traitement 207 ; - des mémoires de l'unité de ré-échantillonnage 208.
En référence à la figure 1, le décodeur comprend en outre une unité de gestion de perte de trame 108 et une mémoire temporaire 107. Afin de décoder une trame de transition, le décodeur 100 comprend en outre en unité de décodage 105 apte à recevoir la sous-trame CELP de transition et la trame de transition décodée par transformée en sortie du décodeur MDCT 104, afin de décoder la trame de transition par addition avec recouvrement des signaux reçus. Le décodeur 100 peut comprendre en outre une interface de sortie 106. Le fonctionnement du décodeur 100 selon l'invention sera mieux compris en référence à la figure 3 qui est un diagramme présentant les étapes d'un procédé selon un mode de réalisation de l'invention.
A une étape 301, une trame courante de signal audio numérique codée peut être reçue ou non par l'unité de réception 101, en provenance d'un codeur. Il est considéré que la trame précédente de signal audio est une trame correctement reçue et décodée ou une trame de remplacement. Il est détecté à une étape 302 si la trame courante codée est manquante ou s'il elle a été reçue par l'unité de réception 101. Dans le cas où la trame courante codée a bien été reçue, il est déterminé à une étape 303, par l'unité de classification 102, si la trame courante codée est une trame CELP. Dans le cas où la trame courante codée est une trame CELP, le procédé comprend une étape 304 de décodage et de ré-échantillonnage de la trame CELP codée, par le décodeur CELP 103. Les mémoires internes précitées du décodeur CELP 103 peuvent ensuite être mises à jour à une étape 305. A une étape 306, le signal décodé et ré-échantillonné est transmis en sortie du décodeur 100. Les paramètres d'excitation de la trame courante, ainsi que les coefficients LPC, peuvent être stockés dans la mémoire 107. Dans le cas où la trame courante codée n'est pas une trame CELP, la trame courante comprend au moins un segment codé selon un codage par transformée (trame MDCT ou trame de transition). Il est alors vérifié à une étape 307 si la trame courante codée est une trame MDCT. Si tel est le cas, la trame courante est décodée à une étape 308 par le décodeur MDCT 104 et le signal décodé est transmis en sortie du décodeur 100 à l'étape 306. Si en revanche la trame courante n'est pas une trame MDCT, alors c'est une trame de transition qui est décodée à une étape 309 en décodant à la fois la sous-trame de transition CELP et la trame courante codée par transformée MDCT et en effectuant l'addition avec recouvrement des signaux issus du décodeur CELP et du décodeur MDCT afin d'obtenir un signal numérique transmis en sortie du décodeur 100 à l'étape 306. Dans le cas où la sous-trame courante a été perdue, il est déterminé à une étape 310 si la trame précédente reçue et décodée était une trame CELP. Si tel n'est pas le cas, un algorithme de PLC adapté à la MDCT, mis en oeuvre dans l'unité de gestion de perte de trame 108 génère une trame de remplacement MDCT décodée par le décodeur MDCT 104 afin d'obtenir un signal numérique de sortie, à une étape 311. Si la dernière trame correctement reçue était une trame CELP, un algorithme de PLC adapté au CELP est mis en oeuvre par l'unité de gestion de perte de trame 108 et le décodeur CELP 103 afin de générer une trame CELP de remplacement, à une étape 312.
L'algorithme de PLC peut comprendre les étapes suivantes : estimation par interpolation des paramètres LSF et du filtre LPC en fonction des paramètres LSF de la trame précédente, en mettant à jour, à une étape 313, les mémoires des quantificateurs prédictifs LSF (qui peuvent être par exemple de type AR or MA) - un exemple de mise en oeuvre de l'estimation des paramètres LPC en cas de perte de trame pour le cas des paramètres ISF est donné dans les clauses 7.11.1.2 « ISF estimation and interpolation » et 7.11.1.7 « Spectral envelope concealment, synthesis, and updates » de la norme UIT-T G.718. Alternativement l'estimation décrite dans la clause 1.5.2.3.3 de la norme UIT-T G.722.2 Appendix I pourra également être utilisée dans le cas d'une quantification de type MA ; - estimation de l'excitation à partir du gain adaptatif et du gain fixe de la trame précédente, en mettant ces valeurs à jour, à l'étape 313, pour la trame suivant. Un exemple d'estimation de l'excitation est décrit dans les clauses 7.11.1.3 « Extrapolation of future pitch », 7.11.1.4 « Construction of the periodic part of the excitation », 7.11.1.15 « Glottal pulse resynchronization in low-delay », 7.11.1.6 « Construction of the random part of the excitation ». Le vecteur du dictionnaire fixe est typiquement remplacé dans chaque sous-trame par un signal aléatoire, le dictionnaire adaptatif utilise un pitch extrapolé et les gains de dictionnaires issus de la trame précédente ont typiquement été atténués selon la classe du signal dans la dernière trame reçue. Alternativement l'estimation de l'excitation décrite dans la norme UIT-T G.722.2 Appendix I pourra également être utilisée ; - synthétiser le signal à partir de l'excitation et du filtre de synthèse 205 mis à jour et en utilisant la mémoire de synthèse de la trame précédente, en mettant à jour la mémoire de synthèse de la trame précédente à l'étape 313 ; - dé-emphase du signal synthétisé en utilisant l'unité de dé-emphase 206, et en mettant à jour, à l'étape 313, la mémoire de l'unité de dé-emphase 206 ; - de façon optionnelle, post-traitement 207 du signal synthétisé en mettant à jour, à l'étape 313, la mémoire du post-traitement - on peut noter que le post-traitement peut être désactivé pendant la correction de perte de trame car les informations qu'ils utilisent ne sont pas fiables car simplement extrapolées, dans ce cas les mémoires du post-traitement doivent quand-même être mise à jour pour permettre un fonctionnement normal à la prochaine trame reçue ; - ré-échantillonnage du signal synthétisé à la fréquence de sortie par le ré-échantillonnage 208, en mettant à jour la mémoire du filtre 208 à l'étape 313. La mise à jour des mémoires internes permet le décodage d'une éventuelle trame suivante codée par prédiction CELP sans discontinuité. A noter que, dans la norme UIT-T G.718, des techniques de « recovery » et de contrôle de l'énergie de la synthèse sont également employées (par exemple dans les clauses 7.11.1.8 et 7.11.1.8.1) lors du décodage d'une trame reçue après une correction de perte de trame. Cet aspect n'est pas considéré ici car il sort du cadre de l'invention. A une étape 314, les mémoires ainsi mises à jour peuvent être copiées dans la mémoire temporaire 107. La trame CELP de remplacement décodée est transmise en sortie du décodeur à une étape 315. A une étape 316, le procédé selon l'invention prévoit la génération par prédiction, d'un segment supplémentaire de signal numérique, en mettant en oeuvre un algorithme de PLC adapté au CELP. L'étape 316 peut comprendre les sous-étapes suivantes : - estimation par interpolation des paramètres LSF et du filtre LPC en fonction des paramètres LSF de la trame CELP précédente, sans mettre à jour les mémoires des quantificateurs LSF. L'estimation par interpolation peut être mise en oeuvre selon la même méthode que celle employée pour l'estimation par interpolation pour la trame de remplacement décrite ci-avant (sans mise à jour des mémoires des quantificateurs LSF) ; - estimation de l'excitation à l'aide du gain adaptatif et du gain fixe de la trame CELP précédente, sans mettre à jour ces valeurs pour la trame suivante. L'excitation peut être déterminée selon la même méthode que celle employée pour la détermination de l'excitation pour la trame de remplacement (sans la mise à jour des valeurs de gain adaptatif et de gain fixe) ; - synthétiser un segment de signal (une demi-trame ou une sous-trame par exemple) à partir de l'excitation et du filtre de synthèse 205 recalculé et en utilisant la mémoire de synthèse de la trame précédente ; - dé-emphase du signal synthétisé en utilisant l'unité de dé-emphase 206; - de façon optionnelle, post-traitement du signal synthétisé en utilisant la mémoire du post-traitement 207 ; - ré-échantillonnage du signal synthétisé à la fréquence de sortie par le ré- échantillonnage 208, en utilisant les mémoires de ré-échantillonnage 208. Il est important de noter que pour chacune des étapes, l'invention prévoit de mémoriser dans des variables temporaires les états du décodage CELP qui sont modifiées à chacune des étapes, avant d'effectuer ces étapes, de sorte que les états prédéterminés puissent être rétablis à leurs valeurs mémorisées après génération du segment temporaire. Le segment de signal supplémentaire généré est stocké dans la mémoire 107 à une étape 317. A une étape 318, une trame suivante de signal numérique est reçue par l'unité de réception 101. Il est vérifié à une étape 319 que la trame suivante est une trame MDCT ou une trame de transition. Si tel n'est pas le cas, alors la trame suivante est une trame CELP et elle est décodée par le décodeur CELP 103 à une étape 320. Le segment supplémentaire synthétisé à l'étape 316 n'est pas utilisé et peut être supprimé de la mémoire 107. Dans le cas où la trame suivante est une trame MDCT ou une trame de transition, elle est décodée par le décodeur MDCT 104 à une étape 322. En parallèle, le segment de signal numérique supplémentaire stocké dans la mémoire 107 est récupéré à une étape 323 par l'unité de gestion 108 et transmise à l'unité de décodage 105. Dans le cas où la trame suivante est une trame MDCT, le segment de signal supplémentaire obtenu permet d'effectuer une addition-recouvrement par l'unité 103 afin de décoder correctement la première partie de la trame MDCT suivante, à une étape 324. Par exemple, lorsque le segment supplémentaire est une moitié de sous-trame, un gain linéaire entre 0 et 1 peut être appliqué lors de l'addition recouvrement sur la première moitié de la trame MDCT et un gain linéaire entre 1 et 0 est appliqué sur le segment de signal supplémentaire. Sans ce segment de signal supplémentaire, le décodage MDCT peut donner lieu à des discontinuités dues aux erreurs de quantification. Dans le cas où la trame suivante est une trame de transition, deux cas sont à distinguer comme considérés ci-dessous. On rappelle que le décodage de la trame de transition s'appuie non seulement sur la classification de la trame courante comme « trame de transition » mais aussi une indication du type de codage CELP (12,8 ou 16 kHz) lorsque plusieurs fréquences de codage CELP sont possibles. Ainsi : - si la trame CELP précédente a été codée par un coeur à une première fréquence (par exemple 12,8 kHz) et que la sous-trame CELP de transition a été codée par un coeur à une deuxième fréquence (par exemple 16 kHz), alors la sous-trame de transition ne peut être décodée, et le segment de signal supplémentaire permet alors à l'unité de décodage 105 d'assurer l'addition recouvrement avec le signal issu du décodage MDCT de l'étape 322. Par exemple, lorsque le segment supplémentaire est une moitié de sous-trame, un gain linéaire entre 0 et 1 peut être appliqué lors de l'addition recouvrement sur la première moitié de la trame MDCT et un gain linéaire entre 1 et 0 est appliqué sur le segment de signal supplémentaire. ; - si la trame CELP précédente et la sous-trame CELP de transition ont été codées par un coeur à la même fréquence, alors la sous-trame CELP de transition peut être décodée et utilisée par l'unité de décodage 105 pour l'addition-recouvrement avec le signal numérique issu du décodeur MDCT 104 ayant décodé la trame de transition. L'addition avec recouvrement entre le segment de signal supplémentaire et la trame MDCT décodée peut être donnée par la formule suivante : S(i) = B(i). (L/i r) + (1 (L/i r)) .T(i) avec : - r un coefficient représentatif de la longueur du segment supplémentaire généré, la longueur étant égale à L/r. Aucune restriction n'est attachée à la valeur r, qui sera choisie de manière à permettre un recouvrement suffisant entre le segment de signal supplémentaire et la trame MDCT de transition décodée. Par exemple, r peut être égal à 2 ; - i un instant correspondant à un échantillon de la trame suivante, compris entre 0 et L/r; - L la longueur de la trame suivante (par exemple 20 ms) ; - S(i) l'amplitude de la trame suivante après addition, pour l'échantillon i ; - B(i) l'amplitude du segment décodé par transformée, pour l'échantillon i ; - T(i) l'amplitude du segment supplémentaire de signal numérique, pour l'échantillon i. Le signal numérique obtenu après addition recouvrement est transmis en sortie du décodeur à une étape 325.
Ainsi, l'invention prévoit, sur perte d'une trame courante suivant une trame CELP précédente, la génération d'un segment supplémentaire en plus d'une trame de remplacement. Dans certains cas, et notamment si la trame suivante est une trame CELP, un tel segment supplémentaire n'est pas utilisé. Toutefois, son calcul n'induit aucune complexité supplémentaire dans la mesure où les paramètres de codage de la trame précédente sont réutilisés. En revanche, lorsque la trame suivante est une trame MDCT ou une trame de transition avec une sous trame CELP à une fréquence de coeur différente de la fréquence de coeur utilisée pour le codage de la trame CELP précédente, le segment de signal supplémentaire généré et stocké permet le décodage de la trame suivante, qui n'était pas permis par les solutions de l'art antérieur.
La figure 4 représente un exemple de dispositif de calcul 400 pouvant être intégré dans le codeur CELP 103 et dans le codeur MDCT 104. Le dispositif 400 comprend une mémoire vive 404 et un processeur 403 pour stocker des instructions permettant la mise en oeuvre d'étapes du procédé décrit ci-avant (mises en oeuvre par le codeur CELP 103 ou par le codeur MDCT 104). Le dispositif comporte aussi une mémoire de masse 405 pour le stockage de données destinées à être conservées après l'application du procédé. Le dispositif 400 comporte en outre une interface d'entrée 401 et une interface de sortie 406 respectivement destinées à recevoir les trames du signal numérique et à transmettre les trames de signal décodées.
Le dispositif 400 peut en outre comporter un processeur de signal numérique (DSP) 402. Ce DSP 402 reçoit les trames de signal numérique pour mettre en forme, démoduler et amplifier, de façon connue en soi ces trames. La présente invention ne se limite pas aux formes de réalisation décrites ci-avant à titre d'exemples ; elle s'étend à d'autres variantes. Ainsi, on a décrit ci-avant un mode de réalisation dans lequel le décodeur est une entité à part entière. Bien sûr, un tél décodeur peut être embarqué dans tout type de dispositif plus important comme par exemple un téléphone portable, un ordinateur, etc. De plus, on a décrit un mode de réalisation proposant une architecture particulière du décodeur. Ces architectures ne sont données qu'à titre illustratif. Ainsi, un agencement des composants et une répartition différente des taches affectées à chacune de ces composantes est également envisageable.

Claims (11)

  1. REVENDICATIONS1. Procédé de décodage d'un signal numérique codé selon un codage prédictif et selon un codage par transformée, comprenant les étapes suivantes : - décodage (304) prédictif d'une trame précédente du signal numérique, codée par un ensemble de paramètres de codage prédictif ; - détection (302) de la perte d'une trame courante du signal numérique codé; - génération (312) par prédiction, à partir d'au moins un paramètre de codage prédictif codant la trame précédente, d'une trame de remplacement de la trame courante ; - génération (316) par prédiction, à partir d'au moins un paramètre de codage prédictif codant la trame précédente, d'un segment supplémentaire de signal numérique ; - stockage (317) temporaire dudit segment supplémentaire de signal numérique.
  2. 2. Procédé selon la revendication 1, comprenant en outre les étapes suivantes : - réception (318) d'une trame suivante de signal numérique codé comprenant au moins un segment codé par transformée ; et - décodage (322 ; 323 ; 324) de la trame suivante comprenant une sous-étape d'addition avec recouvrement entre le segment supplémentaire de signal numérique et ledit segment codé par transformée.
  3. 3. Procédé selon la revendication 2, dans lequel la trame suivante est entièrement codée selon un codage par transformée, et dans lequel la trame courante perdue est une trame de transition entre la trame précédente codée selon un codage prédictif et la trame suivante codée selon un codage par transformée.
  4. 4. Procédé selon la revendication 2, dans lequel la trame précédente est codée selon un codage prédictif par un coeur de codeur prédictif fonctionnant à une première fréquence, et dans lequel la trame suivante est une trame de transition comprenant au moins une sous-trame codée selon un codage prédictif par un coeur de codeur prédictif fonctionnant à une deuxième fréquence distincte de la première fréquence.
  5. 5. Procédé selon la revendication 4, dans lequel la trame suivante comprend un bit indiquant la fréquence du coeur de codage prédictif utilisé.
  6. 6. Procédé selon l'une des revendications 2 à 5, dans lequel l'addition avec recouvrement est donnée par application de la formule suivante :S(i) = B . (1, + (1 (L/i r)) .T (i) avec : - r est un coefficient représentatif de la longueur du segment supplémentaire généré ; - i un instant correspondant à un échantillon de la trame suivante, compris entre 0 et L/r ; - L la longueur de la trame suivante ; -S(i) l'amplitude de la trame suivante après addition, pour l'échantillon i ; - B(i) l'amplitude du segment décodé par transformée, pour l'échantillon i ; - T(i) l'amplitude du segment supplémentaire de signal numérique, pour l'échantillon i.
  7. 7. Procédé selon l'une des revendications précédentes, dans lequel l'étape de génération par prédiction de la trame de remplacement comporte en outre une mise à jour (313) de mémoires internes du décodeur, et dans lequel l'étape de génération par prédiction d'un segment supplémentaire de signal numérique comporte les sous-étapes suivantes : - copie (314) dans une mémoire temporaire (107), des mémoires du décodeur mises à jour lors de l'étape de génération par prédiction de la trame de remplacement ; - génération (316) du segment supplémentaire de signal numérique au moyen de la mémoire temporaire.
  8. 8. Procédé selon l'une des revendications précédentes, dans lequel l'étape de génération par prédiction d'un segment supplémentaire de signal numérique comporte les sous-étapes suivantes : - génération par prédiction d'une trame supplémentaire, à partir d'au moins un paramètre de codage prédictif codant la trame précédente ; - extraction d'un segment de la trame supplémentaire ; et dans lequel le segment supplémentaire de signal numérique correspond à la première moitié de la trame supplémentaire.
  9. 9. Programme informatique comportant des instructions pour la mise en oeuvre du procédé selon l'une quelconque des revendications précédentes, lorsque ces instructions sont exécutées par un processeur.
  10. 10. Décodeur d'un signal numérique codé selon un codage prédictif et selon un codage par transformée, comprenant - - une unité de détection (108) de la perte d'une trame courante du signal numérique ; - un décodeur prédictif (103) comportant un processeur agencé pour effectuer les opérationssuivantes : * décodage prédictif d'une trame précédente du signal numérique, codée par un ensemble de paramètres de codage prédictif ; * génération par prédiction, à partir d'au moins un paramètre de codage prédictif codant la trame précédente, d'une trame de remplacement de la trame courante ; * génération par prédiction, à partir d'au moins un paramètre de codage prédictif codant la trame précédente, d'un segment supplémentaire de signal numérique ; * stockage temporaire dudit segment supplémentaire de signal numérique dans une mémoire temporaire (107).
  11. 11. Décodeur selon la revendication 10, comportant en outre un décodeur par transformée (104) comportant un processeur agencé pour effectuer les opérations suivantes : * réception d'une trame suivante de signal numérique codé comprenant au moins un segment codé par transformée ; et * décodage de la trame suivante par transformée ; ledit décodeur comprenant en outre une unité de décodage (105) comprenant un processeur agencé pour effectuer une addition avec recouvrement entre le segment supplémentaire de signal numérique et ledit segment codé par transformée.
FR1457356A 2014-07-29 2014-07-29 Gestion de la perte de trame dans un contexte de transition fd/lpd Pending FR3024582A1 (fr)

Priority Applications (11)

Application Number Priority Date Filing Date Title
FR1457356A FR3024582A1 (fr) 2014-07-29 2014-07-29 Gestion de la perte de trame dans un contexte de transition fd/lpd
US15/329,428 US10600424B2 (en) 2014-07-29 2015-07-27 Frame loss management in an FD/LPD transition context
EP15757533.3A EP3175444B1 (fr) 2014-07-29 2015-07-27 Gestion de la perte de trame dans un contexte de transition fd/lpd
ES15757533.3T ES2676834T3 (es) 2014-07-29 2015-07-27 Gestión de la pérdida de trama en un contexto de transición FD/LPD
CN202110612907.3A CN113571070B (zh) 2014-07-29 2015-07-27 Fd/lpd转换环境中的帧丢失管理
KR1020177005826A KR102386644B1 (ko) 2014-07-29 2015-07-27 Fd/lpd 전이 컨텍스트에서 프레임 손실 관리
CN201580041610.9A CN106575505B (zh) 2014-07-29 2015-07-27 Fd/lpd转换环境中的帧丢失管理
PCT/FR2015/052075 WO2016016567A1 (fr) 2014-07-29 2015-07-27 Gestion de la perte de trame dans un contexte de transition fd/lpd
JP2017504685A JP6687599B2 (ja) 2014-07-29 2015-07-27 Fd/lpd遷移コンテキストにおけるフレーム喪失管理
US16/782,539 US11475901B2 (en) 2014-07-29 2020-02-05 Frame loss management in an FD/LPD transition context
JP2020022302A JP7026711B2 (ja) 2014-07-29 2020-02-13 Fd/lpd遷移コンテキストにおけるフレーム喪失管理

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR1457356A FR3024582A1 (fr) 2014-07-29 2014-07-29 Gestion de la perte de trame dans un contexte de transition fd/lpd

Publications (1)

Publication Number Publication Date
FR3024582A1 true FR3024582A1 (fr) 2016-02-05

Family

ID=51894139

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1457356A Pending FR3024582A1 (fr) 2014-07-29 2014-07-29 Gestion de la perte de trame dans un contexte de transition fd/lpd

Country Status (8)

Country Link
US (2) US10600424B2 (fr)
EP (1) EP3175444B1 (fr)
JP (2) JP6687599B2 (fr)
KR (1) KR102386644B1 (fr)
CN (2) CN106575505B (fr)
ES (1) ES2676834T3 (fr)
FR (1) FR3024582A1 (fr)
WO (1) WO2016016567A1 (fr)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2980795A1 (fr) 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Codage et décodage audio à l'aide d'un processeur de domaine fréquentiel, processeur de domaine temporel et processeur transversal pour l'initialisation du processeur de domaine temporel
EP2980794A1 (fr) * 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Codeur et décodeur audio utilisant un processeur du domaine fréquentiel et processeur de domaine temporel
TWI602172B (zh) * 2014-08-27 2017-10-11 弗勞恩霍夫爾協會 使用參數以加強隱蔽之用於編碼及解碼音訊內容的編碼器、解碼器及方法
CN107004417B (zh) * 2014-12-09 2021-05-07 杜比国际公司 Mdct域错误掩盖
KR101754702B1 (ko) * 2015-09-03 2017-07-07 유신정밀공업 주식회사 밴드 스프링을 구비한 호스 클램프
US11647241B2 (en) * 2019-02-19 2023-05-09 Sony Interactive Entertainment LLC Error de-emphasis in live streaming
WO2020169754A1 (fr) * 2019-02-21 2020-08-27 Telefonaktiebolaget Lm Ericsson (Publ) Procédés de division d'interpolation de f0 d'ecu par phase et dispositif de commande associé

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140019142A1 (en) * 2012-07-10 2014-01-16 Motorola Mobility Llc Apparatus and method for audio frame loss recovery

Family Cites Families (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4969193A (en) * 1985-08-29 1990-11-06 Scott Instruments Corporation Method and apparatus for generating a signal transformation and the use thereof in signal processing
US6006174A (en) * 1990-10-03 1999-12-21 Interdigital Technology Coporation Multiple impulse excitation speech encoder and decoder
US5907822A (en) * 1997-04-04 1999-05-25 Lincom Corporation Loss tolerant speech decoder for telecommunications
AU3372199A (en) * 1998-03-30 1999-10-18 Voxware, Inc. Low-complexity, low-delay, scalable and embedded speech and audio coding with adaptive frame loss concealment
AU758372B2 (en) * 1999-03-05 2003-03-20 Kabushiki Kaisha Toshiba Method and apparatus for coding moving picture image
US6952668B1 (en) * 1999-04-19 2005-10-04 At&T Corp. Method and apparatus for performing packet loss or frame erasure concealment
JP2001169281A (ja) * 1999-12-13 2001-06-22 Matsushita Electric Ind Co Ltd 動画像符号化装置、および動画像符号化方法
JP2003209845A (ja) * 2002-01-11 2003-07-25 Mitsubishi Electric Corp 画像符号化集積回路
US7536305B2 (en) * 2002-09-04 2009-05-19 Microsoft Corporation Mixed lossless audio compression
JP4331928B2 (ja) * 2002-09-11 2009-09-16 パナソニック株式会社 音声符号化装置、音声復号化装置、及びそれらの方法
WO2004084182A1 (fr) * 2003-03-15 2004-09-30 Mindspeed Technologies, Inc. Decomposition de la voix parlee destinee au codage de la parole celp
US20040199276A1 (en) * 2003-04-03 2004-10-07 Wai-Leong Poon Method and apparatus for audio synchronization
US7596488B2 (en) * 2003-09-15 2009-09-29 Microsoft Corporation System and method for real-time jitter control and packet-loss concealment in an audio signal
JP4445328B2 (ja) * 2004-05-24 2010-04-07 パナソニック株式会社 音声・楽音復号化装置および音声・楽音復号化方法
US20060088093A1 (en) * 2004-10-26 2006-04-27 Nokia Corporation Packet loss compensation
US8634413B2 (en) * 2004-12-30 2014-01-21 Microsoft Corporation Use of frame caching to improve packet loss recovery
US8155965B2 (en) * 2005-03-11 2012-04-10 Qualcomm Incorporated Time warping frames inside the vocoder by modifying the residual
US20080215340A1 (en) * 2005-05-25 2008-09-04 Su Wen-Yu Compressing Method for Digital Audio Files
FR2888699A1 (fr) * 2005-07-13 2007-01-19 France Telecom Dispositif de codage/decodage hierachique
CN101310329A (zh) * 2005-10-18 2008-11-19 诺基亚公司 用于重新同步分组音频流的方法和装置
US8620644B2 (en) * 2005-10-26 2013-12-31 Qualcomm Incorporated Encoder-assisted frame loss concealment techniques for audio coding
US7805297B2 (en) * 2005-11-23 2010-09-28 Broadcom Corporation Classification-based frame loss concealment for audio signals
CN101331539A (zh) * 2005-12-15 2008-12-24 汤姆逊许可公司 用于互联网协议语音的包丢失恢复方法和设备
WO2008022181A2 (fr) * 2006-08-15 2008-02-21 Broadcom Corporation Mise à jour des états de décodeur après un masquage de perte de paquet
CN101366079B (zh) * 2006-08-15 2012-02-15 美国博通公司 用于子带预测编码的基于全带音频波形外插的包丢失隐藏
WO2008031458A1 (fr) 2006-09-13 2008-03-20 Telefonaktiebolaget Lm Ericsson (Publ) Procédés et dispositifs pour émetteur/récepteur de voix/audio
PT2102619T (pt) * 2006-10-24 2017-05-25 Voiceage Corp Método e dispositivo para codificação de tramas de transição em sinais de voz
CN101833954B (zh) * 2007-06-14 2012-07-11 华为终端有限公司 一种实现丢包隐藏的方法和装置
CN101325537B (zh) * 2007-06-15 2012-04-04 华为技术有限公司 一种丢帧隐藏的方法和设备
CN100524462C (zh) * 2007-09-15 2009-08-05 华为技术有限公司 对高带信号进行帧错误隐藏的方法及装置
KR101450297B1 (ko) 2007-09-21 2014-10-13 오렌지 복잡성 분배를 이용하는 디지털 신호에서의 전송 에러 위장
US8527265B2 (en) * 2007-10-22 2013-09-03 Qualcomm Incorporated Low-complexity encoding/decoding of quantized MDCT spectrum in scalable speech and audio codecs
CN101471073B (zh) * 2007-12-27 2011-09-14 华为技术有限公司 一种基于频域的丢包补偿方法、装置和***
CN101588341B (zh) * 2008-05-22 2012-07-04 华为技术有限公司 一种丢帧隐藏的方法及装置
WO2010000303A1 (fr) * 2008-06-30 2010-01-07 Nokia Corporation Décodeur de parole avec dissimulation d'erreur
MX2011000369A (es) * 2008-07-11 2011-07-29 Ten Forschung Ev Fraunhofer Codificador y decodificador de audio para codificar marcos de señales de audio muestreadas.
KR101261677B1 (ko) * 2008-07-14 2013-05-06 광운대학교 산학협력단 음성/음악 통합 신호의 부호화/복호화 장치
US8463603B2 (en) * 2008-09-06 2013-06-11 Huawei Technologies Co., Ltd. Spectral envelope coding of energy attack signal
FR2936898A1 (fr) * 2008-10-08 2010-04-09 France Telecom Codage a echantillonnage critique avec codeur predictif
US8457975B2 (en) * 2009-01-28 2013-06-04 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio decoder, audio encoder, methods for decoding and encoding an audio signal and computer program
CA2750795C (fr) * 2009-01-28 2015-05-26 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Encodeur audio, decodeur audio, informations audio encodees, procedes d'encodage et de decodage d'un signal audio et programme d'ordinateur
JP4977157B2 (ja) * 2009-03-06 2012-07-18 株式会社エヌ・ティ・ティ・ドコモ 音信号符号化方法、音信号復号方法、符号化装置、復号装置、音信号処理システム、音信号符号化プログラム、及び、音信号復号プログラム
US20110046761A1 (en) * 2009-08-19 2011-02-24 Paul Frederick Titchener Recorded Media Enhancement Method
MX2012004648A (es) * 2009-10-20 2012-05-29 Fraunhofer Ges Forschung Codificacion de señal de audio, decodificador de señal de audio, metodo para codificar o decodificar una señal de audio utilizando una cancelacion del tipo aliasing.
US8442837B2 (en) * 2009-12-31 2013-05-14 Motorola Mobility Llc Embedded speech and audio coding using a switchable model core
US8321216B2 (en) * 2010-02-23 2012-11-27 Broadcom Corporation Time-warping of audio signals for packet loss concealment avoiding audible artifacts
US8423355B2 (en) * 2010-03-05 2013-04-16 Motorola Mobility Llc Encoder for audio signal including generic audio and speech frames
US8428936B2 (en) * 2010-03-05 2013-04-23 Motorola Mobility Llc Decoder for audio signal including generic audio and speech frames
EP4372742A2 (fr) * 2010-07-08 2024-05-22 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Codeur utilisant une annulation de repliement vers l'avant
CN103282958B (zh) * 2010-10-15 2016-03-30 华为技术有限公司 信号分析器、信号分析方法、信号合成器、信号合成方法、变换器和反向变换器
FR2969805A1 (fr) 2010-12-23 2012-06-29 France Telecom Codage bas retard alternant codage predictif et codage par transformee
MY160265A (en) * 2011-02-14 2017-02-28 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E V Apparatus and Method for Encoding and Decoding an Audio Signal Using an Aligned Look-Ahead Portion
US9037456B2 (en) * 2011-07-26 2015-05-19 Google Technology Holdings LLC Method and apparatus for audio coding and decoding
DE102011088519A1 (de) * 2011-12-14 2013-06-20 Metabowerke Gmbh Stator für einen Elektromotor sowie Verfahren zur Herstellung eines Stators für einen Elektromotor
US9043201B2 (en) * 2012-01-03 2015-05-26 Google Technology Holdings LLC Method and apparatus for processing audio frames to transition between different codecs
US9123328B2 (en) * 2012-09-26 2015-09-01 Google Technology Holdings LLC Apparatus and method for audio frame loss recovery
US9129600B2 (en) * 2012-09-26 2015-09-08 Google Technology Holdings LLC Method and apparatus for encoding an audio signal
CN103714821A (zh) * 2012-09-28 2014-04-09 杜比实验室特许公司 基于位置的混合域数据包丢失隐藏
US9661340B2 (en) * 2012-10-22 2017-05-23 Microsoft Technology Licensing, Llc Band separation filtering / inverse filtering for frame packing / unpacking higher resolution chroma sampling formats
CN103854649B (zh) * 2012-11-29 2018-08-28 中兴通讯股份有限公司 一种变换域的丢帧补偿方法及装置
RU2612589C2 (ru) * 2013-01-29 2017-03-09 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Низкочастотное акцентирование для основанного на lpc кодирования в частотной области
CA2916150C (fr) * 2013-06-21 2019-06-18 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Appareil et methode de realisation de concepts ameliores destines au tcx ltp
CN103456307B (zh) * 2013-09-18 2015-10-21 武汉大学 音频解码器中帧差错隐藏的谱代替方法及***
US10390034B2 (en) * 2014-01-03 2019-08-20 Microsoft Technology Licensing, Llc Innovations in block vector prediction and estimation of reconstructed sample values within an overlap area
EP3114835B1 (fr) * 2014-03-04 2020-04-22 Microsoft Technology Licensing, LLC Stratégies de codage pour commutation adaptative d'espaces de couleur
US20150264357A1 (en) * 2014-03-11 2015-09-17 Stmicroelectronics S.R.L. Method and system for encoding digital images, corresponding apparatus and computer program product
CN105099949A (zh) * 2014-04-16 2015-11-25 杜比实验室特许公司 基于对延迟抖动和对话动态的监视的抖动缓冲器控制
EP2980797A1 (fr) * 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Décodeur audio, procédé et programme d'ordinateur utilisant une réponse d'entrée zéro afin d'obtenir une transition lisse

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140019142A1 (en) * 2012-07-10 2014-01-16 Motorola Mobility Llc Apparatus and method for audio frame loss recovery

Also Published As

Publication number Publication date
KR20170037661A (ko) 2017-04-04
CN106575505B (zh) 2021-06-01
KR102386644B1 (ko) 2022-04-14
WO2016016567A1 (fr) 2016-02-04
US20200175995A1 (en) 2020-06-04
US20170213561A1 (en) 2017-07-27
EP3175444A1 (fr) 2017-06-07
ES2676834T3 (es) 2018-07-25
JP6687599B2 (ja) 2020-04-22
US11475901B2 (en) 2022-10-18
CN113571070A (zh) 2021-10-29
CN113571070B (zh) 2023-09-29
JP2017523471A (ja) 2017-08-17
JP7026711B2 (ja) 2022-02-28
US10600424B2 (en) 2020-03-24
CN106575505A (zh) 2017-04-19
EP3175444B1 (fr) 2018-04-11
JP2020091496A (ja) 2020-06-11

Similar Documents

Publication Publication Date Title
EP3175444B1 (fr) Gestion de la perte de trame dans un contexte de transition fd/lpd
EP1316087B1 (fr) Dissimulation d'erreurs de transmission dans un signal audio
EP2277172B1 (fr) Dissimulation d'erreur de transmission dans un signal audionumerique dans une structure de decodage hierarchique
EP2080195B1 (fr) Synthèse de blocs perdus d'un signal audionumérique
EP3069340B1 (fr) Transition d'un codage/décodage par transformée vers un codage/décodage prédictif
EP2080194B1 (fr) Attenuation du survoisement, notamment pour la generation d'une excitation aupres d'un decodeur, en absence d'information
EP3175443B1 (fr) Détermination d'un budget de codage d'une trame de transition lpd/fd
EP2345029B1 (fr) Procédé, programme informatique et entité de décodage d'un signal audio numérique
WO2015166175A1 (fr) Correction de perte de trame perfectionnée avec information de voisement
WO2009047461A1 (fr) Dissimulation d'erreur de transmission dans un signal numerique avec repartition de la complexite
EP2589045B1 (fr) Codage/décodage prédictif linéaire adaptatif

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20160205