FR2851879A1 - Procede de traitement de donnees sonores compressees, pour spatialisation. - Google Patents

Procede de traitement de donnees sonores compressees, pour spatialisation. Download PDF

Info

Publication number
FR2851879A1
FR2851879A1 FR0302397A FR0302397A FR2851879A1 FR 2851879 A1 FR2851879 A1 FR 2851879A1 FR 0302397 A FR0302397 A FR 0302397A FR 0302397 A FR0302397 A FR 0302397A FR 2851879 A1 FR2851879 A1 FR 2851879A1
Authority
FR
France
Prior art keywords
matrix
signals
filter
sound
filters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
FR0302397A
Other languages
English (en)
Inventor
Touimi Abdellatif Benjelloun
Marc Emerit
Jean Marie Pernaux
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Orange SA
Original Assignee
France Telecom SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by France Telecom SA filed Critical France Telecom SA
Priority to FR0302397A priority Critical patent/FR2851879A1/fr
Priority to US10/547,311 priority patent/US20060198542A1/en
Priority to AT04712070T priority patent/ATE336151T1/de
Priority to ES04712070T priority patent/ES2271847T3/es
Priority to PCT/FR2004/000385 priority patent/WO2004080124A1/fr
Priority to DE602004001868T priority patent/DE602004001868T2/de
Priority to EP04712070A priority patent/EP1600042B1/fr
Publication of FR2851879A1 publication Critical patent/FR2851879A1/fr
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/02Systems employing more than two channels, e.g. quadraphonic of the matrix type, i.e. in which input signals are combined algebraically, e.g. after having been phase shifted with respect to each other
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Mathematical Optimization (AREA)
  • Algebra (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Stereophonic System (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

L'invention concerne un traitement de données sonores, pour une restitution spatialisée de signaux acoustiques. On obtient, pour chaque signal acoustique, au moins un premier jeu et un second jeu de termes pondérateurs, représentatifs d'une direction de perception dudit signal acoustique par un auditeur. On applique ensuite à au moins deux jeux d'unités de filtrage, disposées en parallèle, lesdits signaux acoustiques, pour délivrer au moins un premier et un second signal de sortie (L,R) correspondant à une combinaison linéaire des signaux délivrés par ces unités de filtrage respectivement pondérés par l'ensemble des termes pondérateurs du premier jeu et du second jeu. Au sens de l'invention, chaque signal acoustique à traiter est au moins partiellement codé en compression et s'exprime sous la forme d'un vecteur de sous-signaux associés à des sous-bandes de fréquences respectives. Chaque unité de filtrage effectue un filtrage matriciel appliqué à chaque vecteur, dans l'espace des sous-bandes fréquentielles.

Description

Procédé de traitement de données sonores compressées, pour spatialisation
L'invention concerne un traitement de données sonores pour une restitution spatialisée de signaux acoustiques.
L'apparition de nouveaux formats de codage de données sur les réseaux de télécommunications permet la transmission de scènes sonores complexes et structurées comprenant des 10 sources sonores multiples. En général, ces sources sonores sont spatialisées, c'est-à-dire qu'elles sont traitées de manière à apporter un rendu final réaliste en terme de position des sources et d'effet de salle (réverbération).
C'est le cas par exemple du codage selon la norme MPEG-4 15 qui permet de transmettre des scènes sonores complexes comprenant des sons compressés ou non, et des sons de synthèse, auxquels sont associés des paramètres de spatialisation (position, effet de la salle environnante).
Cette transmission se fait sur des réseaux avec 20 contraintes, et le rendu sonore dépend du type de terminal utilisé. Sur un terminal mobile de type PDA par exemple (pour "Personal Digital Assistant"), on utilisera de manière préférentielle un casque d'écoute. Les contraintes de ce type de terminaux (puissance de calcul, taille 25 mémoire) rendent difficile l'implémentation de techniques de spatialisation du son.
La spatialisation sonore recouvre deux types de traitements différents. A partir d'un signal audio 30 monophonique, on cherche à donner l'illusion à un auditeur que la ou les sources sonores sont à des positions bien précises de l'espace (que l'on souhaite pouvoir modifier en temps réel), et plongées dans un espace ayant des propriétés acoustiques particulières (réverbération, ou autres phénomènes acoustiques tels que l'occlusion). A 5 titre d'exemple, sur des terminaux de télécommunication de type mobile, il est naturel d'envisager un rendu sonore avec un casque d'écoute stéréophonique. La technique de positionnement des sources sonores la plus efficace est alors la synthèse binaurale.
Elle consiste, pour chaque source sonore, à filtrer le signal monophonique par des fonctions de transfert acoustiques, appelées HRTFs (de l'anglais "Head Related Transfer Functions"), qui modélisent les transformations 15 engendrées par le torse, la tête et le pavillon de l'oreille de l'auditeur sur un signal provenant d'une source sonore. Pour chaque position de l'espace, on peut mesurer une paire de ces fonctions (une pour l'oreille droite, une pour l'oreille gauche). Les HRTFs sont donc 20 des fonctions d'une position spatiale, plus particulièrement d'un angle d'azimut 0 et d'un angle d'élévation p, et de la fréquence sonore f. On obtient alors, pour un sujet donné, une base de données de fonctions de transfert acoustiques de N positions de 25 l'espace pour chaque oreille, dans lesquelles un son peut être "placé" (ou "spatialisé" selon la terminologie utilisée ci-après).
On indique qu'un traitement de spatialisation similaire 30 consiste en une synthèse dite " transaurale", dans laquelle on prévoit simplement plus de deux haut-parleurs dans un dispositif de restitution (qui se présente alors sous une forme différente d'un casque à deux oreillettes gauche et droite).
De manière classique, la mise en oeuvre de cette technique se fait sous forme dite "bicanale" (traitement représenté schématiquement sur la figure 1 relative à l'art antérieur) . Pour chaque source sonore à positionner selon le couple d'angles azimutal et d'élévation [0,p], on 10 filtre le signal de la source par la fonction HRTF de l'oreille gauche et par la fonction HRTF de l'oreille droite. Les deux canaux gauche et droit délivrent des signaux acoustiques qui sont alors diffusés aux oreilles de l'auditeur avec un casque d'écoute stéréophonique. 15 Cette synthèse binaurale bicanale est de type dit ci-après "statique", car dans ce cas, les positions des sources sonores n'évoluent pas dans le temps.
Si l'on souhaite, au contraire, faire varier les positions 20 des sources sonores dans l'espace au cours du temps (synthèse "dynamique"), les filtres utilisés pour modéliser les HRTFs (oreille gauche et oreille droite) doivent être modifiés. Toutefois, ces filtres étant pour la plupart du type à réponse impulsionnelle finie (FIR) ou 25 à réponse impulsionnelle infinie (IIR), des problèmes de discontinuités des signaux de sortie gauche et droit apparaissent, entraînant des "clicks" audibles. La solution technique classiquement employée pour pallier ce problème est de faire tourner deux jeux de filtres 30 binauraux en parallèle. Le premier jeu simule une position [0l,1l1 à l'instant tl, le second une position [02,p2] à l'instant t2. Le signal donnant l'illusion d'un déplacement entre les positions aux instants tl et t2 est alors obtenu par un fondu enchaîné des signaux gauche et droit résultant des processus de filtrage pour la position 5 [01,p1] et pour la position [02,q2] . Ainsi, la complexité du système de positionnement des sources sonores est alors multipliée par deux (deux positions à deux instants) par rapport au cas statique.
Afin de pallier ce problème, des techniques de décomposition linéaire des HRTFs ont été proposées (traitement représenté schématiquement sur la figure 2 relative à l'art antérieur). L'un des avantages de ces techniques est qu'elles permettent une mise en oeuvre dont 15 la complexité dépend beaucoup moins du nombre total de sources à positionner dans l'espace. En effet, ces techniques permettent de décomposer les HRTFs sur une base de fonctions communes à toutes les positions de l'espace, et ne dépendant donc que de la fréquence, ce qui permet de 20 réduire le nombre de filtres nécessaires. Ainsi, ce nombre de filtres est fixe, indépendamment du nombre de sources et/ou du nombre de positions de sources à prévoir. L'ajout d'une source sonore supplémentaire n'ajoute alors que des opérations de multiplication par un jeu de coefficients de 25 pondération et par un retard ti, ces coefficients et ce retard ne dépendant que de la position [Ol]. Aucun filtre supplémentaire n'est donc nécessaire.
Ces techniques de décomposition linéaire ont aussi un 30 intérêt dans le cas de la synthèse binaurale dynamique (i.e. lorsque la position des sources sonores varie au cours du temps). En effet, dans cette configuration, on ne fait plus varier les coefficients des filtres, mais les valeurs des coefficients de pondération et des retards en fonction uniquement de la position. Le principe décrit ci5 dessus de décomposition linéaire des filtres de rendu sonore se généralise à d'autres approches, comme on le verra ci-après.
Par ailleurs, dans les différents services de 10 communication de groupe (téléconférence, audioconférence, visioconférence, ou autre) ou de communication "en flux continu" (de l'anglais " STREAMING" ), pour adapter un débit binaire à la largeur de la bande passante fournie par un réseau, les flux audio et/ou de parole sont transmis sous 15 un format codé compressé. On ne considère ci-après que des flux initialement compresses par des codeurs de type fréquentiel (ou par transformée en fréquence) tels que ceux opérant selon la norme MPEG-1 (Layer I-II-III), la norme MPEG-2/4 AAC, la norme MPEG-4 TwinVQ, la norme Dolby 20 AC-2, la norme Dolby AC-3, ou encore une norme UIT-T G.722.1 en codage de parole, ou encore le procédé de codage TDAC de la Demanderesse. L'utilisation de tels codeurs revient à effectuer d'abord une transformation temps/fréquence sur des blocs du signal temporel. Les 25 paramètres obtenus sont ensuite quantifiés et codés pour être transmis dans une trame avec d'autres informations complémentaires nécessaires pour le décodage. Cette transformation temps/fréquence peut prendre la forme d'un banc de filtres en sous-bandes de fréquences ou encore une 30 transformée de type MDCT (pour "Modified Discrete Cosinus Transform") . Ci-après, on désignera par les mêmes termes "domaine des sous-bandes" un domaine défini dans un espace de sous-bandes fréquentielles, un domaine d'un espace temporel transformé en fréquence ou un domaine fréquentiel.
Pour effectuer la spatialisation sonore sur de tels flux, la méthode classique consiste à faire d'abord un décodage, réaliser le traitement de spatialisation sonore sur les signaux temporels, puis recoder les signaux qui en 10 résultent, pour une transmission vers un terminal de restitution. Cette succession d'étapes, fastidieuse, est souvent très coteuse en terme de puissance de calcul, de la mémoire nécessaire pour le traitement et du délai algorithmique introduit. Elle est donc souvent inadaptée 15 aux contraintes imposées par les machines o s'effectue le traitement et aux contraintes de communication.
La présente invention vient améliorer la situation.
L'un des buts de la présente invention est de proposer un procédé de traitement de données sonores regroupant les opérations de codage/décodage en compression des flux audio et de spatialisation desdits flux.
Un autre but de la présente invention est de proposer un procédé de traitement de données sonores, par spatialisation, qui s'adapte à un nombre variable (dynamiquement) de sources sonores à positionner.
Un but général de la présente invention est de proposer un procédé de traitement de données sonores, par spatialisation, permettant une large diffusion des données sonores spatialisées, en particulier une diffusion pour le grand public, les dispositifs de restitution étant simplement équipés d'un décodeur des signaux reçus et de haut-parleurs de restitution.
Elle propose à cet effet un procédé de traitement de données sonores, pour une restitution spatialisée de signaux acoustiques, dans lequel a) on obtient, pour chaque signal acoustique, au moins un premier jeu et un second jeu de termes pondérateurs, représentatifs d'une direction de perception dudit signal acoustique par un auditeur; b) et on applique à au moins deux jeux d'unités de 15 filtrage, disposées en parallèle, lesdits signaux acoustiques, pour délivrer au moins un premier signal de sortie et un second signal de sortie correspondant chacun à une combinaison linéaire des signaux acoustiques pondérés par l'ensemble des termes pondérateurs 20 respectivement du premier jeu et du second jeu et filtrés par lesdites unités de filtrage.
Chaque signal acoustique à l'étape a) du procédé au sens de l'invention est au moins partiellement codé en 25 compression et s'exprime sous la forme d'un vecteur de sous-signaux associés à des sous-bandes de fréquences respectives, et chaque unité de filtrage est agencée pour effectuer un filtrage matriciel appliqué à chaque vecteur, dans l'espace des sous-bandes fréquentielles.
Avantageusement, chaque filtrage matriciel est obtenu par conversion, dans l'espace des sous-bandes fréquentielles, d'un filtre à réponse impulsionnelle (finie ou infinie) défini dans l'espace temporel. Un tel filtre à réponse 5 impulsionnelle est préférentiellement obtenu par détermination d'une fonction de transfert acoustique dépendant d'une direction de perception d'un son et de la fréquence de ce son.
Selon une caractéristique avantageuse de l'invention, ces fonctions de transfert s'expriment par une combinaison linéaire de termes dépendant de la fréquence et pondérés par des termes dépendant de la direction, ce qui permet, comme indiqué ci-avant, d'une part, de traiter un nombre 15 variable de signaux acoustiques à l'étape a) et, d'autre part, de faire varier dynamiquement la position de chaque source dans le temps. En outre, une telle expression des fonctions de transfert "intègre" le retard interaural qui est classiquement appliqué à l'un des signaux de sortie, 20 par rapport à l'autre, avant la restitution, dans les traitements binauraux. A cet effet, on prévoit des matrices de filtres de gains associés à chaque signal.
Ainsi, lesdits premier et second signaux de sortie étant 25 préférentiellement destinés à être décodés en des premier et second signaux de restitution, la combinaison linéaire précitée tient déjà compte d'un décalage temporel entre ces premier et second signaux de restitution, de façon avantageuse.
Finalement, entre l'étape de réception/décodage des signaux reçus par un dispositif de restitution et l'étape de restitution elle-même, on peut ne prévoir aucune étape supplémentaire de spatialisation sonore, ce traitement de 5 spatialisation étant complètement effectué en amont et directement sur des signaux codés.
Selon l'un des avantages que procure la présente invention, l'association des techniques de décomposition 10 linéaire des HRTFs aux techniques de filtrage dans le domaine des sous-bandes permet de profiter des avantages des deux techniques pour arriver à des systèmes de spatialisation sonore à faible complexité et à mémoire réduite pour des signaux audio codés multiples.
En effet, dans une architecture "bicanale" classique, le nombre de filtres à utiliser est fonction du nombre de sources à positionner. Comme indiqué ci-avant, ce problème ne se retrouve pas dans une architecture basée sur la 20 décomposition linéaire des HRTFs. Cette technique est donc préférable en termes de puissance de calcul, mais aussi d'espace mémoire nécessaire au stockage des filtres binauraux. Enfin, cette architecture permet de gérer de manière optimale la synthèse binaurale dynamique, car elle 25 permet d'effectuer le "fading" entre deux instants tl et t2 sur des coefficients qui ne dépendent que de la position, et ne nécessite donc pas deux jeux de filtres en parallèle.
Selon un autre avantage que procure la présente invention, le filtrage direct des signaux dans le domaine codé permet l'économie d'un décodage complet par flux audio avant de procéder à la spatialisation des sources, ce qui implique un gain considérable en complexité.
Selon un autre avantage que procure la présente invention, la spatialisation sonore de flux audio peut intervenir à différents points d'une chaîne de transmission (serveurs, noeuds du réseau ou terminaux). La nature de l'application et l'architecture de la communication utilisée peuvent 10 favoriser un cas ou un autre. Ainsi, dans un contexte de téléconférence, le traitement de spatialisation est préférentiellement effectué au niveau des terminaux dans une architecture décentralisée et, au contraire, au niveau du pont audio (ou MCU pour "Multipoint Control Unit") dans 15 une architecture centralisée. Pour des applications de "streaming" audio, notamment sur des terminaux mobiles, la spatialisation peut être réalisée soit dans le serveur, soit dans le terminal, ou encore lors de la création de contenu. Dans ces différents cas, une diminution de la 20 complexité de traitement et aussi de la mémoire nécessaire pour le stockage des filtres HRTF est toujours appréciée.
Par exemple, pour des terminaux mobiles (téléphones portables de seconde et troisième générations, PDA, ou micro-ordinateurs de poche) ayant des contraintes fortes 25 en terme de capacité de calcul et de taille mémoire, on prévoit préférentiellement un traitement de spatialisation directement au niveau d'un serveur de contenus.
La présente invention peut trouver aussi des applications 30 dans le domaine de la transmission de flux audio multiples inclus dans des scènes sonores structurées, comme le prévoit la norme MPEG-4.
D'autres caractéristiques, avantages et applications de 5 l'invention apparaîtront à l'examen de la description détaillée ci-après, et des dessins annexés sur lesquels: - la figure 1 illustre schématiquement un traitement correspondant à une synthèse binaurale "bicanale" statique pour des signaux audionumériques temporels Si, de l'art 10 antérieur; - la figure 2 représente schématiquement une mise en oeuvre de la synthèse binaurale basée sur la décomposition linéaire des HRTFs pour des signaux audionumériques temporels non codés, de l'art antérieur; - la figure 3 représente schématiquement un système, au sens de l'art antérieur, de spatialisation binaurale de N sources audio initialement codées, puis complètement décodées pour le traitement de spatialisation dans le domaine temporel et ensuite recodées pour une transmission 20 à un ou plusieurs dispositifs de restitution, ici à partir d'un serveur; - la figure 4 représente schématiquement un système, au sens de la présente invention, de spatialisation binaurale de N sources audio partiellement décodées pour le 25 traitement de spatialisation dans le domaine des sousbandes et ensuite recodées complètement pour la transmission à un ou plusieurs dispositifs de restitution, ici à partir d'un serveur; - la figure 5 représente schématiquement un traitement de 30 spatialisation sonore dans le domaine des sous-bandes, au sens de l'invention, basé sur la décomposition linéaire des HRTFs dans le contexte binaural; - la figure 6 représente schématiquement un traitement d'encodage/décodage pour spatialisation, mené dans le 5 domaine des sous- bandes et basé sur une décomposition linéaire de fonctions de transfert dans le contexte ambisonique, dans une variante de réalisation de l'invention; - la figure 7 représente schématiquement un traitement de 10 spatialisation binaurale de N sources audio codées, au sens de la présente invention, effectué auprès d'un terminal de communication, selon une variante du système de la figure 4; - la figure 8 représente schématiquement une architecture 15 d'un système de téléconférence centralisée, avec un pont audio entre une pluralité de terminaux; et - la figure 9 représente schématiquement un traitement, au sens de la présente invention, de spatialisation de (N-1) sources audio codées parmi N sources en entrée d'un pont 20 audio d'un système selon la figure 8, effectué auprès de ce pont audio, selon une variante du système de la figure 4.
On se réfère tout d'abord à la figure 1 pour décrire un 25 traitement classique de synthèse binaurale "bicanale". Ce traitement consiste à filtrer le signal des sources (Si) que l'on souhaite positionner à une position choisie dans l'espace par les fonctions de transfert acoustiques gauche (HRTF_1) et droite (HRTFr) correspondant à la direction 30 (Oi,çpi) appropriée. On obtient deux signaux qui sont alors additionnés aux signaux gauches et droits résultant de la spatialisation des autres sources, pour donner les signaux globaux L et R diffusés aux oreilles gauche et droite d'un auditeur. Le nombre de filtres nécessaires est alors de 2.N pour une synthèse binaurale statique et de 4.N pour 5 une synthèse binaurale dynamique, N étant le nombre de flux audio à spatialiser.
On se réfère maintenant à la figure 2 pour décrire un traitement classique de synthèse binaurale basée sur la 10 décomposition linéaire des HRTFs. Ici, chaque filtre HRTF est d'abord décomposé en un filtre à phase minimale, caractérisé par son module, et en un retard pur ti. Les dépendances spatiales et fréquentielles des modules des HRTFs sont séparées grâce à une décomposition linéaire. 15 Ces modules des fonctions de transfert HRTFs s'écrivent alors comme une somme de fonctions spatiales Cn(O,ço) et de filtres de reconstruction Ln(f), comme exprimé ci-après: IHRTF(8, ,f)I= 1C, (O, o).L,(f) Eq[ 11] Chaque signal d'une source Si à spatialiser (i=l,...,N) est pondéré par des coefficients Cni(O,P) (n=l,...,P) issus de la décomposition linéaire des HRTFs. Ces coefficients ont pour particularité de ne dépendre que de la position [0, ó] 25 o l'on souhaite placer la source, et non de la fréquence f. Le nombre de ces coefficients dépend du nombre P de vecteurs de base que l'on a conservé pour la reconstruction. Les N signaux de toutes les sources pondérés par le coefficient "directionnel" Cni sont alors 30 additionnés (pour le canal droit et le canal gauche, séparément), puis filtrés par le filtre correspondant au nième vecteur de base. Ainsi, contrairement à la synthèse binaurale "bicanale"', l'ajout d'une source supplémentaire ne nécessite pas l'ajout de deux filtres additionnels 5 (souvent de type FIR ou IIR). Les P filtres de base sont en effet partagés par toutes les sources présentes. Cette mise en oeuvre est dite llmulticanaleII' De plus, dans le cas de la synthèse binaurale dynamique, il est possible de faire varier les coefficients Cni(O,P) sans apparition de 10 clicks en sortie du dispositif. Dans ce cas, seulement 2.P filtres sont nécessaires, alors que 4.N filtres étaient nécessaires pour la synthèse bicanale.
Sur la figure 2, les coefficients Ci correspondent aux 15 coefficients directionnels pour la source i à la position (Oi,qi) et pour le filtre de reconstruction n. On les note C pour la voie gauche (L) et D pour la voie droite (R). On indique que le principe de traitement de la voie droite R est le même que celui de la voie gauche L. Toutefois, les 20 flèches en traits pointillés pour le traitement de la voie droite n'ont pas été représentées par souci de clarté du dessin. Entre les deux lignes verticales en trait discontinu de la figure 2, on définit alors un système noté I, du type représenté sur la figure 3. 25 Toutefois, avant de se reporter à la figure 3, on indique que différentes méthodes ont été proposées pour déterminer les fonctions spatiales et les filtres de reconstruction.
Une première méthode est basée sur une décomposition dite 30 de KarhunenLoeve et est décrite notamment dans le document W094/10816. Une autre méthode repose sur l'analyse en composantes principales des HRTFs et est décrite dans W096/13962. Le document FR-2782228 plus récent décrit aussi une telle mise en òuvre.
Dans le cas o un traitement de spatialisation de ce type se fait au niveau du terminal de communication, une étape de décodage des N signaux est nécessaire avant le traitement de spatialisation proprement dit. Cette étape demande des ressources de calcul considérables (ce qui est 10 problématique sur les terminaux de communication actuels notamment de type portable). Par ailleurs, cette étape entraîne un délai sur les signaux traités, ce qui nuit à l'interactivité de la communication. Si la scène sonore transmise comprend un grand nombre de sources (N), l'étape 15 de décodage peut en fait devenir plus coteuse en ressources de calcul que l'étape de spatialisation sonore proprement dite. En effet, comme indiqué ci-avant, le cot de calcul de la synthèse binaurale "rmulticanale" ne dépend que très peu du nombre de sources sonores à spatialiser. 20 Le cot de calcul de l'opération de spatialisation des N flux audio codés (dans la synthèse multicanale de la figure 2) peut donc se déduire des étapes suivantes (pour la synthèse de l'un des deux canaux de rendu gauche ou 25 droit) : - décodage (pour N signaux), - application du retard interaural ti, - multiplication par les gains positionnels Cni (PxN gains pour l'ensemble des N signaux), - sommation des N signaux pour chaque filtre de base d'indice n, - filtrage des P signaux par les filtres de base, - et sommation des P signaux de sortie des filtres de base.
Dans le cas o la spatialisation ne se fait pas au niveau d'un terminal mais au niveau d'un serveur (cas de la figure 3), ou encore dans un noeud d'un réseau de communication (cas d'un pont audio en téléconférence), il faut en plus rajouter une opération de codage complet du 10 signal de sortie.
En se référant à la figure 3, la spatialisation de N sources sonores (faisant par exemple partie d'une scène sonore complexe de type MPEG4) nécessite donc: - un décodage complet des N sources audio Si, ... , Si, SN codées en entrée du système représenté (noté "Système 1") pour obtenir N flux audio décodés, correspondant par exemple à des signaux PCM (pour "Pulse Code Modulation"), - un traitement de spatialisation dans le domaine temporel ("Système 1" ) pour obtenir deux signaux spatialisés L et R, - et ensuite un recodage complet sous forme de canaux gauche et droit L et R, véhiculés dans le réseau de 25 communication pour être reçus par un ou plusieurs dispositifs de restitution.
Ainsi, le décodage des N flux codés est nécessaire avant l'étape de spatialisation des sources sonores, ce qui 30 entraîne une augmentation du cot de calcul et l'ajout d'un délai d au traitement du décodeur. On indique que les sources audio initiales sont généralement stockées directement sous format codé, dans les serveurs de contenus actuels.
On indique en outre que pour une restitution sur plus de deux hautparleurs (synthèse transaurale ou encore en contexte "ambisonique" que l'on décrit ci-après), le nombre de signaux résultant du traitement de spatialisation est généralement supérieur à deux, ce qui 10 augmente encore le cot de calcul pour recoder complètement ces signaux avant leur transmission par le réseau de communication.
On se réfère maintenant à la figure 4 pour décrire une 15 mise en oeuvre du procédé au sens de la présente invention.
Elle consiste à associer l'implémentation "multicanale" de la synthèse binaurale (figure 2) aux techniques de filtrage dans le domaine transformé (domaine dit "des 20 sous-bandes") afin de ne pas avoir à réaliser N opérations de décodage complètes avant l'étape de spatialisation. On réduit ainsi le cot de calcul global de l'opération.
Cette "intégration" des opérations de codage et de spatialisation peut être effectuée dans le cas d'un 25 traitement au niveau d'un terminal de communication ou d'un traitement au niveau d'un serveur comme représenté sur la figure 4.
Les différentes étapes de traitement des données ainsi que 30 l'architecture du système sont décrites en détail ciaprès.
Dans le cas d'une spatialisation de signaux audio codés multiples, au niveau du serveur comme dans l'exemple représenté sur la figure 4, une opération de décodage 5 partiel est encore nécessaire. Toutefois, cette opération est beaucoup moins coteuse que l'opération de décodage dans un système conventionnel tel que représenté sur la figure 3. Ici, cette opération consiste principalement à récupérer les paramètres des sousbandes à partir du flux 10 audio binaire, codé. Cette opération dépend du codeur initial utilisé. Elle peut consister par exemple en un décodage entropique suivi d'une quantification inverse comme dans un codeur MPEG-l Layer III. Une fois ces paramètres des sous-bandes retrouvés, le traitement est 15 effectué dans le domaine des sous-bandes, comme on le verra ci-après.
Le cot de calcul global de l'opération de spatialisation des flux audio codés est alors considérablement réduit. En 20 effet, l'opération initiale de décodage dans un système conventionnel est remplacée par une opération de décodage partiel de complexité bien moindre. La charge de calcul dans un système au sens de l'invention devient sensiblement constante en fonction du nombre de flux audio 25 que l'on souhaite spatialiser. Par rapport aux systèmes conventionnels, on obtient un gain en terme de cot de calcul qui devient alors proportionnel au nombre de flux audio que l'on souhaite spatialiser. De plus, l'opération de décodage partiel entraîne un délai de traitement 30 inférieur à l'opération de décodage complet, ce qui est particulièrement intéressant dans un contexte de communication interactive.
Le système pour la mise en ouvre du procédé selon 5 l'invention, effectuant la spatialisation dans le domaine des sous-bandes, est noté "Système II" sur la figure 4.
On décrit ci-après l'obtention des paramètres dans le domaine des sousbandes à partir de réponses 10 impulsionnelles binaurales.
De manière classique, les fonctions de transfert binaurales ou HRTFs sont accessibles sous la forme de réponses impulsionnelles temporelles. Ces fonctions sont 15 constituées en général de 256 échantillons temporels, à une fréquence d'échantillonnage de 44,1 kHz (typique dans le domaine del'audio). Ces réponses impulsionnelles peuvent être issues de mesures ou de simulations acoustiques.
Les étapes de pré-traitement pour l'obtention des paramètres dans le domaine des sous-bandes sont préférentiellement les suivantes: extraction du retard interaural à partir de réponses 25 impulsionnelles binaurales hl(n) et hr,(n) (si l'on dispose de D directions de l'espace mesurées, on obtient un vecteur de D valeurs de retard interaural ITD (exprimé en secondes)) ; - modélisation des réponses impulsionnelles binaurales 30 sous forme de filtres à phase minimale; - choix du nombre de vecteurs de base (P) que l'on souhaite conserver pour la décomposition linéaire des HRTFs; - décomposition linéaire des réponses à phase minimale 5 selon la relation Eq[li ci-avant (on obtient ainsi les D coefficients directionnels Cni et Di qui ne dépendent que de la position de la source sonore à spatialiser et les P vecteurs de base qui ne dépendent que de la fréquence) ; - modélisation des filtres de base Ln et Rn sous forme de filtres IIR ou FIR; - calcul de matrices de filtres de gains Gi dans le domaine des sous- bandes à partir des D valeurs d'ITD (ces retards ITD sont alors considérés comme des 15 filtres FIR destinés à être transposés dans le domaine des sous-bandes, comme on le verra ci-après.
Dans le cas général, Gi est une matrice de filtres.
Les D coefficients directionnels CrI, Di à appliquer dans le domaine des sous-bandes sont des scalaires de 20 mêmes valeurs que les Cni et Dni respectivement dans le domaine temporel) ; - transposition des filtres de base Ln et Rn, initialement sous forme IIR ou FIR, dans le domaine des sous-bandes (cette opération donne des matrices 25 de filtres, notées ci-après Ln et Rn, à appliquer dans le domaine des sous-bandes. La méthode pour effectuer cette transposition est indiquée ci-après).
On remarquera que les matrices de filtres Gi appliqués de manière indépendante à chaque source "intègrent" une 30 opération classique de calcul de retard pour l'ajout du retard interaural entre un signal Li et un signal Ri à restituer. En effet, dans le domaine temporel, on prévoit classiquement des lignes à retard Ti (figure 2) à appliquer à un signal "oreille gauche" par rapport à un signal "oreille droite". Dans le domaine des sous-bandes, 5 on prévoit plutôt une telle matrice de filtres Gi, lesquels permettent en outre d'ajuster des gains (par exemple en énergie) de certaines sources par rapport à d'autres.
Dans le cas d'une transmission à partir d'un serveur vers 10 des terminaux de restitution, toutes ces étapes sont effectuées avantageusement hors ligne. Les matrices de filtres ci-avant sont donc calculées une fois puis stockées définitivement en mémoire du serveur. On notera en particulier que le jeu des coefficients de pondération 15 C i, DI reste avantageusement inchangé du domaine temporel au domaine des sous- bandes.
Pour des techniques de spatialisation basées sur du filtrage par des filtres HRTFs et ajout du retard ITD 20 (pour " Interaural Time Delay") tel que la synthèse binaurale et transaurale, ou encore des filtres de fonctions de transfert dans le contexte ambisonique, une difficulté s'est présentée pour trouver des filtres équivalents à appliquer sur des échantillons dans le 25 domaine des sous-bandes. En effet, ces filtres issus du banc de filtres d'analyse doivent préférentiellement être construits de manière à ce que les signaux temporels gauche et droite restitués par le banc de filtres de synthèse présentent le même rendu sonore, et sans aucun 30 artefact, que celui obtenu par une spatialisation directe sur un signal temporel. La conception de filtres permettant d'aboutir à un tel résultat n'est pas immédiate. En effet, la modification du spectre du signal apporté par un filtrage dans le domaine temporel ne peut 5 être réalisée directement sur les signaux des sous- bandes sans tenir compte du phénomène de recouvrement de spectre ("aliasing") introduit par le banc de filtres d'analyse.
La relation de dépendance entre les composantes d'aliasing des différentes sous-bandes est préférentiellement 10 conservée lors de l'opération du filtrage pour que leur suppression soit assurée par le banc de filtres de synthèse.
On décrit ci-après un procédé pour transposer un filtre 15 S(z), de type FIR ou IIR, rationnel (sa transformée en z étant un quotient de deux polynômes) dans le cas d'une décomposition linéaire de HRTFs ou de fonctions de transfert de ce type, dans le domaine des sous-bandes, pour un banc de filtres à M sous-bandes et à 20 échantillonnage critique, défini respectivement par ses filtres d'analyse et de synthèse Hk(z) et Fk(z), o 0sk5M-1. On entend par "échantillonnage critique" le fait que le nombre de l'ensemble des échantillons de sorties des sous-bandes correspond au nombre d'échantillons en 25 entrées. Ce banc de filtres est supposé aussi satisfaire à la condition de reconstruction parfaite.
On considère tout d'abord une matrice de transfert S(z) correspondant au filtre scalaire S(z), qui s'exprime comme 30 suit: So (z) S (Z) .. SM_ (z) Z- SM_1 (Z) SO (z) Si (z) .. SM2 (z) z' SM2 (z) Z-' SM, (z) So (z) SI (Z) Sm3 (z) SS). (z) z-' S, (Z) ... Z-' SMI (z) SO (z) o Sk(z) (0OksM-1) sont les composantes polyphasées du filtre S(z).
Ces composantes sont obtenues de manière directe pour un filtre FIR. Pour les filtres IIR, une méthode de calcul est indiquée dans: [1] A. Benjelloun Touimi, "Traitement du signal audio 10 dans le domaine codé : techniques et applications" thèse de doctorat de l'Ecole Nationale Supérieure des Télécommunications de Paris, (Annexe A, p.141), Mai 2001.
On détermine ensuite des matrices polyphasées, E(z) et R(z), correspondant respectivement aux bancs de filtres d'analyse et de synthèse. Ces matrices sont déterminées définitivement pour le banc de filtres considéré.
On calcule alors la matrice de filtrage complète en sousbandes par la formule suivante: Ssb(Z)=zKE(z)S(z)R(z), o ZK correspond à une avance avec K=(L/M)-l (caractérisant le banc de filtres utilisé), L étant la longueur des filtres d'analyse et de synthèse des 25 bancs de filtres utilisés.
On construit ensuite la matrice S5b(z) dont les lignes sont obtenues à partir de celles de Ssb(Z) comme suit: [0... Sbil(Z) ... S ii(Z) ... Ssbin(Z) ... 0] (0<nsM-1), o - i est l'indice de la (i+l)ième ligne et compris entre 0 et M-1, - 1 = i-6 mod[M], o 6 correspond à un nombre choisi de sous-diagonales adjacentes, la notation mod[M] correspondant à une opération de soustraction modulo M, - n = i+6 mod[M], la notation mod[M] correspondant à une opération d'addition modulo M. On indique que le nombre choisi ô correspond au nombre de bandes qui se recouvrent suffisamment d'un côté avec la 15 bande passante d'un filtre du banc de filtres. Il dépend donc du type de bancs de filtres utilisés dans le codage choisi. A titre d'exemple, pour le banc de filtres MDCT, a peut être pris égal à 2 ou 3. Pour le banc de filtres Pseudo-QMF du codage MPEG-1, ô est pris égal à 1. 20 On notera que le résultat de cette transposition d'un filtre à réponse impulsionnelle finie ou infinie au domaine des sous-bandes est une matrice de filtres de taille MxM. Cependant, tous les filtres de cette matrice 25 ne sont pas considérés lors du filtrage en sous-bandes.
Avantageusement, seuls les filtres de la diagonale principale et de quelques sous-diagonales adjacentes peuvent être utilisés pour obtenir un résultat similaire à celui obtenu par un filtrage dans le domaine temporel 30 (sans altérer pour autant la qualité de la restitution).
La matrice Ssb(z) résultant de cette transposition, puis réduite, est celle utilisée pour le filtrage en sousbandes.
A titre d'exemple, on indique ci-après les expression des matrices polyphasées E(z) et R(z) pour un banc de filtres MDCT, largement utilisé dans des codeurs par transformée actuels tels que ceux opérant selon les standards MPEG-2/4 AAC, ou Dolby AC-2 & AC-3, ou TDAC de la Demanderesse. Le 10 traitement ci-après peut aussi bien s'adapter à un banc de filtres de type Pseudo-QMF du codeur MPEG-1/2 Layer I-II.
Un banc de filtres MDCT est généralement défini par une matrice T=[t,,], de taille Mx2M, dont les éléments 15 s'expriment comme suit: tkl h[l] cosM( k+)( 2M+], O<k<M-1 et 0<1<2M-1 o h[l] correspond à la fenêtre de pondération dont un choix possible est la fenêtre sinusodale qui s'exprime sous la forme suivante: h[] =sin <l<2M-1.
Les matrices polyphasées d'analyse et de synthèse sont alors données respectivement par les formules suivantes: E(z)=TJM +ToJMz-', R(z) JMTo + JMTz-', O... I, o JM= . j correspond à la matrice anti-identité de taille MxM et To et Tl sont des matrices de taille MxM résultant de la partition suivante: T=[To TI].
On indique que pour ce banc de filtres L=2M et K=I.
Pour des bancs de filtres de type Pseudo-QMF de MPEG-l/2 Layer I-II, on définit une fenêtre de pondération h[i], i=0...L-1, et une matrice de modulation en cosinus C=[ck,], 10 de taille Mx2M, dont les coefficients sont donnés par: Ckl=cos[M(k+)(/-M)] , 0<1<2M-1 et 0<k<M-1 avec les relations suivantes: L=2mMet K=2m-1 o m est un entier. Plus particulièrement dans le cas du codeur MPEG-l/2 Layer I-II, ces paramètres prennent les valeurs 15 suivantes: M=32, L=512, m=8 et K=15.
La matrice polyphasée d'analyse s'exprime alors comme suit: E(z)=ez go (z_)] o g0(Z) et g,(z) sont des matrices diagonales définies par: g0(z) =diag[G0(z) G,(z)... GM-, (z)] gl, (z) = diag[GM(z) GM+l (z) ... G2M- (Z)] avec Gk (_z2)= (-1)/ h(21M+k)z-2, 0<k<2M-1 1=0 Dans la norme MPEG-1 Audio Layer I-II, on fournit typiquement les valeurs de la fenêtre (-1) lh(21M+k), avec O<k<2M-1, 0 <1m-1.
La matrice polyphasée de synthèse peut alors se déduire simplement par la formule suivante: R(z) = z-(2m-)ET (z-') Ainsi, en se référant maintenant à la figure 4 au sens de la présente invention, on procède à un décodage partiel de N sources audio Sl,...,Si,...,SN codées en compression, pour obtenir des signaux S1,..., Si,..., SN correspondant préférentiellement à des vecteurs signaux dont les 15 coefficients sont des valeurs affectées chacune à une sous-bande. On entend par "décodage partiel" un traitement permettant d'obtenir à partir des signaux codés en compression de tels vecteurs signaux dans le domaine des sous-bandes. On peut obtenir en outre des informations de 20 position desquelles sont déduites des valeurs respectives de gains Gî,...,GI,...,GN (pour la synthèse binaurale) et des coefficients Cj1 (pour l'oreille gauche) et Dn, (pour l'oreille droite) pour le traitement de spatialisation conformément à l'équation Eq[il donnée ci-avant, comme le 25 montre la figure 5. Toutefois, le traitement de spatialisation est mené directement dans le domaine des sous-bandes et l'on applique les 2P matrices L, et R, de filtres de base, obtenues comme indiqué ci-avant, aux vecteurs signaux Si pondérés par les coefficients 30 scalaires CnI et Dm1, respectivement.
En se référant à la figure 5, les vecteurs signaux L et R, résultant du traitement de spatialisation dans le domaine des sous-bandes (par exemple dans un système de traitement 5 noté "Système II" sur la figure 4) s'expriment alors par les relations suivantes, dans une représentation par leur transformée en z: P N1 L(z)=ZL L (z).[ C"1.S1 (z)] R(z) = Rn (Z). 0Dni-si(| n=l i=l Dans l'exemple représenté sur la figure 4, le traitement de spatialisation est effectué dans un serveur relié à un réseau de communication. Ainsi, ces vecteurs signaux L et R peuvent être recodés complètement en compression pour 15 diffuser les signaux compressés L et R (canaux gauche et droit) dans le réseau de communication et à destination des terminaux de restitution.
Ainsi, une étape initiale de décodage partiel des signaux 20 codés Si est prévue, avant le traitement de spatialisation. Toutefois, cette étape est beaucoup moins coteuse et plus rapide que l'opération de décodage complet qui était nécessaire dans l'art antérieur (figure 3) . De plus, les vecteurs signaux L et R sont déjà 25 exprimés dans le domaine des sous-bandes et le recodage partiel de la figure 4 pour obtenir les signaux codés en compression L et R est plus rapide et moins coteux qu'un codage complet tel que représenté sur la figure 3.
On indique que les deux traits discontinus verticaux de la figure 5 délimitent le traitement de spatialisation effectué dans le "Système II" de la figure 4. A ce titre, la présente invention vise aussi un tel système comportant s des moyens de traitement des signaux partiellement codés Si, pour la mise en euvre du procédé selon l'invention.
On indique que le document: [2] "A Generic Framework for Filtering in Subband Domain" 10 A. Benjelloun Touimi, IEEE 9th Workshop on Digital Signal Processing, Hunt, Texas, USA, Octobre 2000, ainsi que le document [1] cité ci-avant, concernent une méthode générale de calcul d'une transposition dans le domaine des sous-bandes d'un filtre de réponse 15 impulsionnelle finie ou infinie.
On indique en outre que des techniques de spatialisation sonore dans le domaine des sous-bandes ont été proposées récemment, notamment dans un autre document: [3] "Subband-Domain Filtering of MPEG Audio Signals", C.A.
Lanciani and R. W. Schafer, IEEE Int. Conf. on Acoust., Speech, Signal Proc., 1999.
Ce dernier document présente une méthode permettant de 25 transposer un filtre à réponse impulsionnelle finie (FIR) dans le domaine des sousbandes des bancs de filtres pseudo-QMF du codeur MPEG-1 Layer I-II et MDCT du codeur MPEG-2/4 AAC. L'opération de filtrage équivalente dans le domaine des sous-bandes est représentée par une matrice de 30 filtres FIR. En particulier, cette proposition s'inscrit dans le contexte d'une transposition de filtres HRTFs, directement sous leur forme classique et non pas sous la forme d'une décomposition linéaire telle qu'exprimée par l'équation Eq[il ci-avant et sur une base de filtres au 5 sens de l'invention. Ainsi, un inconvénient de la méthode au sens de ce dernier document consiste en ce que le traitement de spatialisation ne peut pas s'adapter à un nombre quelconque de sources ou de flux audio encodés à spatialiser.
On indique que, pour une position donnée, chaque filtre HRTF (d'ordre 200 pour un FIR et d'ordre 12 pour un IIR) donne lieu à une matrice de filtres (carrée) de dimension égale au nombre de sous-bandes du banc de filtres utilisé. 15 Dans le document [3] cité ci-avant, on doit prévoir un nombre de HRTFs suffisant pour représenter les différentes positions dans l'espace, ce qui pose un problème de taille mémoire si l'on souhaite spatialiser une source à une position quelconque dans l'espace. 20 En revanche, une adaptation d'une décomposition linéaire des HRTFs dans le domaine des sous-bandes, au sens de la présente invention, ne présente pas ce problème puisque le nombre (P) de matrices de filtres de base L, et R, est 25 beaucoup plus réduit. Ces matrices sont alors stockées définitivement dans une mémoire (du serveur de contenu ou du terminal de restitution) et permettent un traitement simultané de spatialisation d'un nombre quelconque de sources, comme représenté sur la figure 5.
On décrit ci-après une généralisation du traitement de spatialisation au sens de la figure 5 à d'autres traitements de rendu sonore, tels qu'un traitement dit d'"encodage ambisonique". En effet, un système de rendu 5 sonore peut se présenter de manière générale sous la forme d'un système de prise de son réel ou virtuel (pour une simulation) consistant en un encodage du champ sonore.
Cette phase consiste à enregistrer p signaux sonores de manière réelle ou à simuler de tels signaux (encodage 10 virtuel) correspondant à l'ensemble d'une scène sonore comprenant tous les sons, ainsi qu'un effet de salle.
Le système précité peut aussi se présenter sous la forme d'un système de rendu sonore consistant à décoder les 15 signaux issus de la prise de son pour les adapter aux dispositifs de traducteurs de rendu sonore (tels qu'une pluralité de haut-parleurs ou un casque de type stéréophonique) . On transforme les p signaux en n signaux qui alimentent les n hautparleurs. 20 A titre d'exemple, la synthèse binaurale consiste à réaliser une prise de son réel, à l'aide d'une paire de microphones introduit dans les oreilles d'une tête humaine (artificielle ou réelle). On peut aussi simuler 25 l'enregistrement en réalisant la convolution d'un son monophonique avec la paire de HRTFs correspondant à une direction souhaitée de la source sonore virtuelle. A partir d'un ou plusieurs signaux monophoniques provenant de sources prédéterminées, on obtient deux signaux 30 (oreille gauche et oreille droite) correspondant à une phase dite "d'encodage binaural", ces deux signaux étant simplement appliqués ensuite à un casque à deux oreillettes (tel qu'un casque stéréophonique).
Toutefois, d'autres encodages et décodages sont possibles 5 à partir de la décomposition de filtre correspondant à des fonctions de transfert sur une base de filtres. Comme indiqué ci-avant, les dépendances spatiales et fréquentielles des fonctions de transfert, de type HRTFs, sont séparées grâce à une décomposition linéaire et 10 s'écrivent comme une somme de fonctions spatiales C,(O,ç) et de filtres de reconstruction Li(f) qui dépendent de la fréquence:
P
HRTF(O,ço,f)= Zci(O,(p).Li(f) i=l Toutefois, on indique que cette expression peut être généralisée à tout type d'encodage, pour n sources sonores Sj(f) et un format d'encodage comprenant p signaux en sortie, à : n Ei (f) =yXu (0o,().Sj(f), 1<i< p Eq[2] j= o, par exemple dans le cas d'une synthèse binaurale, Xij peut s'exprimer sous la forme d'un produit des filtres de gains Gj et des coefficients C1j,Dij.
On se réfère à la figure 6 sur laquelle N flux audio Sj 25 représentés dans le domaine des sous-bandes après décodage partiel, subissent un traitement de spatialisation, par exemple un encodage ambisonique, pour délivrer p signaux Ei encodés dans le domaine des sous-bandes. Un tel traitement de spatialisation respecte donc le cas général régi par l'équation Eq[2] ci-avant. On remarquera d'ailleurs sur la figure 6 que l'application aux signaux Sj de la matrice des filtres Gj (pour définir le retard 5 interaural ITD) n'est plus nécessaire ici, dans le contexte ambisonique.
De même, une relation générale, pour un format de décodage comprenant p signaux Ej(f) et un format de rendu sonore 10 comprenant m signaux, est donnée par pu Di(f) =Kji(f)E1(f), 1 < j < m Eq[3] Pour un système de rendu sonore donné, les filtres Kji(f) sont fixes et ne dépendent, à fréquence constante, que du 15 système de rendu sonore et de sa disposition par rapport à un auditeur. Cette situation est représentée sur la figure 6 (à droite du trait vertical en pointillés), dans l'exemple du contexte ambisonique. Par exemple, les signaux Ei encodés spatialement dans le domaine des sous20 bandes sont recodés complètement en compression, transmis dans un réseau de communication, récupérés dans un terminal de restitution, décodés partiellement en compression pour en obtenir une représentation dans le domaine des sous-bandes. Finalement, on retrouve, après 25 ces étapes, sensiblement les même signaux Ei décrits ciavant, dans le terminal. Un traitement dans le domaine des sous- bandes du type exprimé par l'équation Eq[3] permet alors de récupérer m signaux Dj, spatialement décodés et prêts à être restitués après décodage en compression.
Bien entendu, plusieurs systèmes de décodage peuvent être agencés en série, selon l'application visée.
Par exemple, dans le contexte ambisonique bidimensionnel 5 d'ordre 1, un format d'encodage avec trois signaux W, X, Y pour p sources sonores s'exprime, pour l'encodage, par: El = W = , Sj E2=X= ,cos (0j)S.
E3 Y= y,sin(9X)S, Pour le décodage "ambisonique" auprès d'un dispositif de restitution à cinq haut-parleurs sur deux bandes de fréquences [0, f] et [f, f2] avec f =400Hz et f2 correspondant à une bande passante des signaux considérés, 15 les filtres Kji(f) prennent les valeurs numériques constantes sur ces deux bandes de fréquences, données dans les tableaux I et II ci-après.
Tableau I: valeurs des coefficients définissant les 20 filtres Kji(f) pour O<f fJ w X Y 0.342 0.233 0.000 0.268 0.382 0.505 0.268 0.382 -0.505 0.561 -0.499 0.457 0.561 -0.499 -0.457 Tableau II: valeurs des coefficients définissant les filtres Kj,(f) pour f.<f of2 w x y 0.383 0.372 0.000 0.440 0.234 0.541 0.440 0.234 -0.541 0.782 -0.553 0.424 0.782 -0.553 -0.424 Bien entendu, des procédés de spatialisation différents (contexte ambisonique et synthèse binaurale et/ou transaurale) peuvent être combinés auprès d'un serveur et/ou auprès d'un terminal de restitution, de tels procédés de spatialisation respectant l'expression 10 générale d'une décomposition linéaire de fonctions de transfert dans l'espace des fréquences, comme indiqué ciavant.
On décrit ci-après une mise en oeuvre du procédé au sens de 15 l'invention dans une application liée à une téléconférence entre terminaux distants.
En se référant à nouveau à la figure 4, des signaux codés (Si) émanent de N terminaux distants. Ils sont 20 spatialisés au niveau du serveur de téléconférence (par exemple au niveau d'un pont audio pour une architecture en étoile telle que représentée sur la figure 8), pour chaque participant. Cette étape, effectuée dans le domaine des sous- bandes après une phase de décodage partiel, est 25 suivie d'un recodage partiel. Les signaux ainsi codés en compression sont ensuite transmis via le réseau et, dès réception par un terminal de restitution, sont décodés complètement en compression et appliqués aux deux voies gauche et droite i et r, respectivement, du terminal de 5 restitution, dans le cas d'une spatialisation binaurale.
Au niveau des terminaux, le traitement de décodage en compression permet ainsi de délivrer deux signaux temporels gauche et droit qui contiennent l'information de positions de N locuteurs distants et qui alimentent deux 10 haut-parleurs respectifs (casque à deux oreillettes). Bien entendu, pour une spatialisation générale, par exemple dans le contexte ambisonique, m voies peuvent être récupérées en sortie du serveur de communication, si l'encodage/décodage en spatialisation sont effectués par 15 le serveur. Toutefois, il est avantageux, en variante, de prévoir l'encodage en spatialisation auprès du serveur et le décodage en spatialisation auprès du terminal à partir des p signaux codés en compression, d'une part, pour limiter le nombre de signaux à véhiculer via le réseau (en 20 général p<m) et, d'autre part, pour adapter le décodage spatial aux caractéristiques de rendu sonore de chaque terminal (par exemple le nombre de haut-parleurs qu'il comporte, ou autres).
Cette spatialisation peut être statique ou dynamique et, en outre, interactive. Ainsi, la position des locuteurs est fixe ou peut varier au cours du temps. Si la spatialisation n'est pas interactive, la position des différents locuteurs est fixe: l'auditeur ne peut pas la 30 modifier. En revanche, si la spatialisation est interactive, chaque auditeur peut configurer son terminal pour positionner la voix des N autres locuteurs o il le souhaite, sensiblement en temps réel.
En se référant maintenant à la figure 7, le terminal de 5 restitution reçoit N flux audio (Si) codés en compression (MPEG, AAC, ou autres) d'un réseau de communication. Après un décodage partiel pour obtenir les vecteurs signaux (S1), le terminal ("Système Il") traite ces vecteurs signaux pour spatialiser les sources audio, ici en 10 synthèse binaurale, dans deux vecteurs signaux L et R qui sont ensuite appliqués à des bancs de filtres de synthèse en vue d'un décodage en compression. Les signaux PCM gauche et droit, respectivement 1 et r, résultant de ce décodage sont ensuite destinés à alimenter directement des 15 haut-parleurs. Ce type de traitement s'adapte avantageusement à un système de téléconférence décentralisé (plusieurs terminaux connectés en mode point à point).
On décrit ci-après le cas d'un " streaming" ou d'un téléchargement d'une scène sonore, notamment dans le contexte de codage en compression selon la norme MPEG-4.
Cette scène peut être simple, ou encore complexe comme 25 souvent dans le cadre de transmissions MPEG-4 o la scène sonore est transmise sous un format structuré. Dans le contexte MPEG-4, le terminal client reçoit, à partir d'un serveur multimédia, un flux binaire multiplexé correspondant à chacun des objets audio primitifs codés, 30 ainsi que des instructions quant à leur composition pour reconstruire la scène sonore. On entend par "objet audio" un flux binaire élémentaire obtenu par un codeur MPEG-4 Audio. La norme MPEG-4 Système fournit un format spécial, appelé "AudioBIFS" (pour ".BInary Format for Scene description"), afin de transmettre ces instructions. Le 5 rôle de ce format est de décrire la composition spatiotemporelle des objets audio. Pour construire la scène sonore et assurer un certain rendu, ces différents flux décodés peuvent subir un traitement ultérieur.
Particulièrement, une étape de traitement de spatialisation sonore peut être effectuée.
Dans le format "AudioBIFS", les manipulations à effectuer sont représentées par un graphe. On prévoit les signaux audio décodés en entrée du graphe. Chaque noeud du graphe 15 représente un type de traitement à réaliser sur un signal audio. On prévoit en sortie du graphe les différents signaux sonores à restituer ou à associer à d'autres objets média (images ou autre).
Les algorithmes utilisés sont mis à jour dynamiquement et sont transmis avec le graphe de la scène. Ils sont décrits sous forme de routines écrites dans un langage spécifique tel que "SAOL" (pour "Structured Audio Score Language").
Ce langage possède des fonctions prédéfinies qui incluent 25 notamment et de façon particulièrement avantageuse des filtres FIR et IIR (qui peuvent alors correspondre à des HRTFs, comme indiqué ci-avant).
En outre, dans les outils de compression audio fournis par 30 la norme MPEG-4, on trouve des codeurs par transformée utilisés surtout pour la transmission audio haute qualité (monophonique et multivoies). C'est le cas des codeurs AAC et TwinVQ basés sur la transformée MDCT.
Ainsi, dans le contexte MPEG-4, les outils permettant de 5 mettre en oeuvre le procédé au sens de l'invention sont déjà présents.
Dans un terminal MPEG-4 récepteur, il suffit alors d'intégrer la couche basse de décodage aux noeuds de la 10 couche supérieure qui assure des traitements particuliers, telle que la spatialisation binaurale par des filtres HRTFs. Ainsi, après décodage partiel des flux binaires audio élémentaires démultiplexés et issus d'un même type de codeur (MPEG-4 AAC par exemple), les noeuds du graphe 15 "AudioBIFS" qui font intervenir une spatialisation binaurale peuvent être traités directement dans le domaine des sous-bandes (MDCT par exemple) . L'opération de synthèse par banc de filtres n'est effectuée qu'après cette étape.
Dans une architecture de téléconférence multipoint centralisée telle que représentée sur la figure 8, entre quatre terminaux dans l'exemple représenté, le traitement des signaux pour la spatialisation ne peut s'effectuer 25 qu'au niveau du pont audio. En effet, les terminaux TER1, TER2, TER3 et TER4 reçoivent des flux déjà mixés et donc aucun traitement ne peut être réalisé à leur niveau pour la spatialisation.
On comprend qu'une réduction de la complexité de traitement est particulièrement souhaitée dans ce cas. En effet, pour une conférence à N terminaux (NÄ3), le pont audio doit réaliser une spatialisation deslocuteurs issus des terminaux pour chacun des N sous-ensembles constitués de (N-1) locuteurs parmi les N participant à la 5 conférence. Un traitement dans le domaine codé apporte bien entendu plus de bénéfice.
La figure 9 représente schématiquement le système de traitement prévu dans le pont audio. Ce traitement est 10 ainsi effectué sur un sous- ensemble de (N-1) signaux audio codés parmi les N en entrée du pont. Les trames audio codés gauche et droit dans le cas d'une spatialisation binaurale, ou les m trames audio codés dans le cas d'une spatialisation générale (par exemple en encodage 15 ambisonique) tel que représenté sur la figure 9, qui résultent de ce traitement sont ainsi transmises au terminal restant qui participe à la téléconférence mais qui ne figure pas parmi ce sous-ensemble (correspondant à un "terminal auditeur"). Au total, N traitements du type 20 décrit ci-avant sont réalisés dans le pont audio (N sousensembles de (N-1) signaux codés). On indique que le codage partiel de la figure 9 désigne l'opération de construction de la trame audio codée après le traitement de spatialisation et à transmettre sur une voie (gauche ou 25 droit). A titre d'exemple, il peut s'agir d'une quantification des vecteurs signaux L et R qui résultent du traitement de spatialisation, en se basant sur un nombre de bits alloué et calculé suivant un critère psychoacoustique choisi. Les traitements classiques de 30 codage en compression après l'application du banc de filtres d'analyse peuvent donc être maintenus et effectués avec la spatialisation dans le domaine des sous-bandes.
Par ailleurs, comme indiqué ci-avant, la position de la source sonore à spatialiser peut varier au cours du temps, ce qui revient à faire varier au cours du temps les coefficients directionnels du domaine des sousbandes CQi et Dn. La variation de la valeur de ces coefficients se 10 fait préférentiellement de manière discrète.
Bien entendu, la présente invention ne se limite pas aux formes de réalisation décrites ci-avant à titre d'exemples mais elle s'étend à d'autres variantes définies dans le 15 cadre des revendications ci-après.

Claims (25)

Revendications
1. Procédé de traitement de données sonores, pour une restitution spatialisée de signaux acoustiques, dans lequel: a) on obtient, pour chaque signal acoustique, au moins un premier jeu et un second jeu de termes pondérateurs, représentatifs d'une direction de perception dudit signal acoustique par un auditeur; et b) on applique à au moins deux jeux d'unités de filtrage, disposées en parallèle, lesdits signaux acoustiques, pour délivrer au moins un premier signal de sortie (L) et un second signal de sortie (R) correspondant chacun à une combinaison linéaire des signaux acoustiques pondérés par 15 l'ensemble des termes pondérateurs respectivement du premier jeu (Ci) et du second jeu (Dmi) et filtrés par lesdites unités de filtrage, caractérisé en ce que chaque signal acoustique à l'étape a) est au moins partiellement codé en compression 20 et s'exprime sous la forme d'un vecteur de sous-signaux associés à des sous-bandes de fréquences respectives, et en ce que chaque unité de filtrage est agencée pour effectuer un filtrage matriciel appliqué à chaque vecteur, dans l'espace des sous-bandes fréquentielles. 25
2. Procédé selon la revendication 1, caractérisé en ce que chaque filtrage matriciel est obtenu par conversion, dans l'espace des sous- bandes fréquentielles, d'un filtre représenté par une réponse impulsionnelle dans l'espace 30 temporel.
3. Procédé selon la revendication 2, caractérisé en ce que chaque filtre à réponse impulsionnelle est obtenu par détermination d'une fonction de transfert acoustique dépendant d'une direction de perception d'un son et de la fréquence de ce son.
4. Procédé selon la revendication 3, caractérisé en ce que lesdites fonctions de transfert s'expriment par une combinaison linéaire de termes dépendant de la fréquence 10 et pondérés par des termes dépendant de la direction (Eq[1]).
5. Procédé selon l'une des revendications précédentes, caractérisé en ce que lesdits termes pondérateurs du 15 premier et du second jeu dépendent de la direction du son.
6. Procédé selon la revendication 5, caractérisé en ce que la direction est définie par un angle azimutal (0) et un angle d'élévation (p).
7. Procédé selon l'une des revendications 2 et 3, caractérisé en ce que le filtrage matriciel s'exprime à partir d'un produit matriciel faisant intervenir des matrices polyphasées (E(z), R(z)) correspondant à des 25 bancs de filtres d'analyse et de synthèse et d'une matrice de transfert (S(z)) dont les éléments sont fonction du filtre à réponse impulsionnelle.
8. Procédé selon l'une des revendications précédentes, 30 caractérisé en ce que la matrice du filtrage matriciel est de forme réduite et comporte une diagonale et un nombre prédéterminé (6) de sous-diagonales adjacentes, inférieures et supérieures dont les éléments ne sont pas tous nuls.
9. Procédé selon la revendication 8, prise en combinaison avec la revendication 7, caractérisé en ce que les lignes de la matrice du filtrage matriciel s'expriment par: [0... Sbil(Z) ... Ssbii (Z) ... Sbin(Z... 0], io - i est l'indice de la (i+l)ième ligne et compris entre 0 10 et M-1, M correspondant à un nombre total de sous-bandes, - 1 = i-6 mod[M], o 8 correspond audit nombre de sousdiagonales adjacentes, la notation mod[M] correspondant à une opération de soustraction modulo M, n = i+6 mod[M], la notation mod[M] correspondant à une 15 opération d'addition modulo M, - et ssbij(z) sont les coefficients de ladite matrice produit faisant intervenir les matrices polyphasées des bancs de filtres d'analyse et de synthèse et de ladite matrice de transfert.
10. Procédé selon l'une des revendications 7 à 9, caractérisé en ce que ladite matrice produit s'exprime par sSb(z) = ZK E(z)S(z)R(z), o - zK est une avance définie par le terme K=(L/M)-l o L 25 est la longueur de la réponse impulsionnelle des filtres d'analyse et de synthèse des bancs de filtres et M le nombre total de sous-bandes, - E(z) est la matrice polyphasée correspondant au banc de filtres d'analyse, - R(z) est la matrice polyphasée correspondant au banc de filtres de synthèse, et - S(z) correspond à ladite matrice de transfert.
11. Procédé selon l'une des revendications caractérisé en ce que ladite matrice de s'exprime par: 7 à 10, transfert So (z) Z-IsM-I (Z) Z -SM -2(Z) Si (z) So (z) Z-SMI (z) oo Sl (z) So(z) S. (z) si (z) S (z) = SM-i(z) SM_2 (z) * * SM -3 (Z) SM (z) Z-ISM-I (z) So (Z) z-'Só(z) o Sk(Z) sont les composantes polyphasées du filtre à 10 réponse impulsionnelle S(z), avec k compris entre 0 et M-1 et M correspondant à un nombre total de sousbandes.
12. Procédé selon l'une des revendications 7 à 11, caractérisé en ce que lesdits bancs de filtres opèrent en 15 échantillonnage critique.
13. Procédé selon l'une des revendications 7 à 12, caractérisé en ce que lesdits bancs de filtres satisfont à une propriété de reconstruction parfaite.
14. Procédé selon l'une des revendications 2 à 13, caractérisé en ce que le filtre à réponse impulsionnelle est un filtre rationnel, s'exprimant sous la forme d'une fraction de deux polynômes.
15. Procédé selon la revendication 14, caractérisé en ce que ladite réponse impulsionnelle est infinie.
16. Procédé selon l'une des revendications 8 à 15, 5 caractérisé en ce que ledit nombre prédéterminé (6) de sous-diagonales adjacentes est fonction d'un type de banc de filtres utilisé dans le codage en compression choisi.
17. Procédé selon la revendication 16, caractérisé en ce 10 que ledit nombre prédéterminé (6) est compris entre 1 et 5.
18. Procédé selon l'une des revendications 7 à 17, caractérisé en ce que les éléments de matrice (L,,Rn) résultant dudit produit matriciel sont stockés dans une mémoire et réutilisés pour tous signaux acoustiques partiellement codés et à spatialiser.
19. Procédé selon l'une des revendications précédentes, 20 caractérisé en ce qu'il comporte en outre une étape d) consistant à appliquer un banc de filtres de synthèse auxdits premier (L) et second signaux de sortie (R), avant leur restitution.
20. Procédé selon la revendication 19, caractérisé en ce qu'il comporte en outre une étape c) préalable à l'étape d) consistant à véhiculer les premier et second signaux dans un réseau de communication, à partir d'un serveur distant et vers un dispositif de restitution, sous forme 30 codée et spatialisée, et en ce que l'étape b) est effectuée auprès dudit serveur distant.
21. Procédé selon la revendication 19, caractérisé en ce qu'il comporte en outre une étape c) préalable à l'étape d) consistant à véhiculer les premier et second signaux 5 dans un réseau de communication, à partir d'un pont audio d'un système de téléconférence multipoints, d'architecture centralisée, et vers un dispositif de restitution dudit système de téléconférence, sous forme codée et spatialisée, et en ce que l'étape b) est effectuée auprès 10 dudit pont audio.
22. Procédé selon la revendication 19, caractérisé en ce qu'il comporte en outre une étape ultérieure à l'étape a) consistant à véhiculer lesdits signaux acoustiques sous 15 forme codée en compression dans un réseau de communication, à partir d'un serveur distant et vers un terminal de restitution, et en ce que les étapes b) et d) sont effectuées auprès dudit terminal de restitution.
23. Procédé selon l'une des revendications précédentes, caractérisé en ce que l'on applique à l'étape b) une spatialisation sonore par synthèse binaurale basée sur une décomposition linéaire de fonctions de transfert acoustiques.
24. Procédé selon la revendication 23, caractérisé en ce que l'on applique en outre, à l'étape b), une matrice de filtres de gains (Gi) à chaque signal acoustique partiellement codé (Si), en ce que lesdits premier et second signaux de sortie sont destinés à être décodés en des premier et second signaux de restitution (l,r), et en ce que l'application de ladite matrice de filtres de 5 gains revient à appliquer un décalage temporel choisi (ITD) entre lesdits premier et second signaux de restitution.
25. Procédé selon l'une des revendications 1 à 22, 10 caractérisé en ce que l'on obtient, à l'étape a), plus de deux jeux de termes pondérateurs, et en ce que l'on applique aux signaux acoustiques, à l'étape b), plus de deux jeux d'unités de filtrage, pour délivrer plus de deux signaux de sortie comportant des signaux ambisoniques 15 encodés.
FR0302397A 2003-02-27 2003-02-27 Procede de traitement de donnees sonores compressees, pour spatialisation. Pending FR2851879A1 (fr)

Priority Applications (7)

Application Number Priority Date Filing Date Title
FR0302397A FR2851879A1 (fr) 2003-02-27 2003-02-27 Procede de traitement de donnees sonores compressees, pour spatialisation.
US10/547,311 US20060198542A1 (en) 2003-02-27 2004-02-18 Method for the treatment of compressed sound data for spatialization
AT04712070T ATE336151T1 (de) 2003-02-27 2004-02-18 Verfahren zum bearbeiten komprimierter audiodaten zur räumlichen wiedergabe
ES04712070T ES2271847T3 (es) 2003-02-27 2004-02-18 Procedimiento de tratamiento de datos sonoros comprimidos, por espacializacion.
PCT/FR2004/000385 WO2004080124A1 (fr) 2003-02-27 2004-02-18 Procede de traitement de donnees sonores compressees, pour spatialisation
DE602004001868T DE602004001868T2 (de) 2003-02-27 2004-02-18 Verfahren zum bearbeiten komprimierter audiodaten zur räumlichen wiedergabe
EP04712070A EP1600042B1 (fr) 2003-02-27 2004-02-18 Procede de traitement de donnees sonores compressees, pour spatialisation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0302397A FR2851879A1 (fr) 2003-02-27 2003-02-27 Procede de traitement de donnees sonores compressees, pour spatialisation.

Publications (1)

Publication Number Publication Date
FR2851879A1 true FR2851879A1 (fr) 2004-09-03

Family

ID=32843028

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0302397A Pending FR2851879A1 (fr) 2003-02-27 2003-02-27 Procede de traitement de donnees sonores compressees, pour spatialisation.

Country Status (7)

Country Link
US (1) US20060198542A1 (fr)
EP (1) EP1600042B1 (fr)
AT (1) ATE336151T1 (fr)
DE (1) DE602004001868T2 (fr)
ES (1) ES2271847T3 (fr)
FR (1) FR2851879A1 (fr)
WO (1) WO2004080124A1 (fr)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007106553A1 (fr) * 2006-03-15 2007-09-20 Dolby Laboratories Licensing Corporation Restitution binaurale utilisant des filtres de sous-bandes
WO2007104877A1 (fr) * 2006-03-13 2007-09-20 France Telecom Synthese et spatialisation sonores conjointes
WO2007110519A2 (fr) * 2006-03-28 2007-10-04 France Telecom Procede et dispositif de spatialisation sonore binaurale efficace dans le domaine transforme
EP1999847A2 (fr) * 2006-03-28 2008-12-10 Telefonaktiebolaget L M Ericsson (Publ) Resolution de frequence adaptée au filtre
EP2094031A3 (fr) * 2005-03-04 2014-10-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Dispositif et procédé de production d'un signal stéréo codé d'un élément audio ou d'un courant de données audio
US9080981B2 (en) 2009-12-02 2015-07-14 Lawrence Livermore National Security, Llc Nanoscale array structures suitable for surface enhanced raman scattering and methods related thereto
US9395304B2 (en) 2012-03-01 2016-07-19 Lawrence Livermore National Security, Llc Nanoscale structures on optical fiber for surface enhanced Raman scattering and methods related thereto
CN108140389A (zh) * 2015-10-08 2018-06-08 高通股份有限公司 空间向量的量化
WO2018185733A1 (fr) 2017-04-07 2018-10-11 A3D Technologies Llc Procédé de spatialisation sonore

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100606734B1 (ko) 2005-02-04 2006-08-01 엘지전자 주식회사 삼차원 입체음향 구현 방법 및 그 장치
US8345890B2 (en) 2006-01-05 2013-01-01 Audience, Inc. System and method for utilizing inter-microphone level differences for speech enhancement
US9185487B2 (en) 2006-01-30 2015-11-10 Audience, Inc. System and method for providing noise suppression utilizing null processing noise subtraction
US8204252B1 (en) 2006-10-10 2012-06-19 Audience, Inc. System and method for providing close microphone adaptive array processing
US8744844B2 (en) 2007-07-06 2014-06-03 Audience, Inc. System and method for adaptive intelligent noise suppression
US8194880B2 (en) 2006-01-30 2012-06-05 Audience, Inc. System and method for utilizing omni-directional microphones for speech enhancement
KR100754220B1 (ko) * 2006-03-07 2007-09-03 삼성전자주식회사 Mpeg 서라운드를 위한 바이노럴 디코더 및 그 디코딩방법
US8849231B1 (en) 2007-08-08 2014-09-30 Audience, Inc. System and method for adaptive power control
US8949120B1 (en) 2006-05-25 2015-02-03 Audience, Inc. Adaptive noise cancelation
US8934641B2 (en) * 2006-05-25 2015-01-13 Audience, Inc. Systems and methods for reconstructing decomposed audio signals
US8204253B1 (en) 2008-06-30 2012-06-19 Audience, Inc. Self calibration of audio device
US8150065B2 (en) 2006-05-25 2012-04-03 Audience, Inc. System and method for processing an audio signal
US8259926B1 (en) 2007-02-23 2012-09-04 Audience, Inc. System and method for 2-channel and 3-channel acoustic echo cancellation
US20080273708A1 (en) * 2007-05-03 2008-11-06 Telefonaktiebolaget L M Ericsson (Publ) Early Reflection Method for Enhanced Externalization
US8189766B1 (en) 2007-07-26 2012-05-29 Audience, Inc. System and method for blind subband acoustic echo cancellation postfiltering
JP2009128559A (ja) * 2007-11-22 2009-06-11 Casio Comput Co Ltd 残響効果付加装置
US8143620B1 (en) 2007-12-21 2012-03-27 Audience, Inc. System and method for adaptive classification of audio sources
US8180064B1 (en) 2007-12-21 2012-05-15 Audience, Inc. System and method for providing voice equalization
US8194882B2 (en) 2008-02-29 2012-06-05 Audience, Inc. System and method for providing single microphone noise suppression fallback
US8355511B2 (en) 2008-03-18 2013-01-15 Audience, Inc. System and method for envelope-based acoustic echo cancellation
US8521530B1 (en) 2008-06-30 2013-08-27 Audience, Inc. System and method for enhancing a monaural audio signal
US8774423B1 (en) 2008-06-30 2014-07-08 Audience, Inc. System and method for controlling adaptivity of signal modification using a phantom coefficient
KR101496760B1 (ko) * 2008-12-29 2015-02-27 삼성전자주식회사 서라운드 사운드 가상화 방법 및 장치
US8639046B2 (en) * 2009-05-04 2014-01-28 Mamigo Inc Method and system for scalable multi-user interactive visualization
CN102577441B (zh) * 2009-10-12 2015-06-03 诺基亚公司 用于音频处理的多路分析
US9838784B2 (en) 2009-12-02 2017-12-05 Knowles Electronics, Llc Directional audio capture
US8718290B2 (en) 2010-01-26 2014-05-06 Audience, Inc. Adaptive noise reduction using level cues
US9008329B1 (en) 2010-01-26 2015-04-14 Audience, Inc. Noise reduction using multi-feature cluster tracker
US9378754B1 (en) 2010-04-28 2016-06-28 Knowles Electronics, Llc Adaptive spatial classifier for multi-microphone systems
US9491299B2 (en) * 2012-11-27 2016-11-08 Dolby Laboratories Licensing Corporation Teleconferencing using monophonic audio mixed with positional metadata
US9536540B2 (en) 2013-07-19 2017-01-03 Knowles Electronics, Llc Speech signal separation and synthesis based on auditory scene analysis and speech modeling
FR3009158A1 (fr) * 2013-07-24 2015-01-30 Orange Spatialisation sonore avec effet de salle
DE102013223201B3 (de) * 2013-11-14 2015-05-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zum Komprimieren und Dekomprimieren von Schallfelddaten eines Gebietes
DE112015004185T5 (de) 2014-09-12 2017-06-01 Knowles Electronics, Llc Systeme und Verfahren zur Wiederherstellung von Sprachkomponenten
US9820042B1 (en) 2016-05-02 2017-11-14 Knowles Electronics, Llc Stereo separation and directional suppression with omni-directional microphones
US10598506B2 (en) * 2016-09-12 2020-03-24 Bragi GmbH Audio navigation using short range bilateral earpieces

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6021386A (en) * 1991-01-08 2000-02-01 Dolby Laboratories Licensing Corporation Coding method and apparatus for multiple channels of audio information representing three-dimensional sound fields
US6470087B1 (en) * 1996-10-08 2002-10-22 Samsung Electronics Co., Ltd. Device for reproducing multi-channel audio by using two speakers and method therefor

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7116787B2 (en) * 2001-05-04 2006-10-03 Agere Systems Inc. Perceptual synthesis of auditory scenes

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6021386A (en) * 1991-01-08 2000-02-01 Dolby Laboratories Licensing Corporation Coding method and apparatus for multiple channels of audio information representing three-dimensional sound fields
US6470087B1 (en) * 1996-10-08 2002-10-22 Samsung Electronics Co., Ltd. Device for reproducing multi-channel audio by using two speakers and method therefor

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
LANCIANI C A ET AL: "Psychoacoustically-based processing of MPEG-I layer 1-2 encoded signals", MULTIMEDIA SIGNAL PROCESSING, 1997., IEEE FIRST WORKSHOP ON PRINCETON, NJ, USA 23-25 JUNE 1997, NEW YORK, NY, USA,IEEE, US, 23 June 1997 (1997-06-23), pages 53 - 58, XP010233896, ISBN: 0-7803-3780-8 *
LANCIANI C A ET AL: "SUBBAND-DOMAIN FILTERING OF MPEG AUDIO SIGNALS", 1999 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH, AND SIGNAL PROCESSING. PHOENIX, AZ, MARCH 15 - 19, 1999, IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH, AND SIGNAL PROCESSING (ICASSP), NEW YORK, NY: IEEE, US, vol. 2, 15 March 1999 (1999-03-15), pages 917 - 920, XP000900271, ISBN: 0-7803-5042-1 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2094031A3 (fr) * 2005-03-04 2014-10-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Dispositif et procédé de production d'un signal stéréo codé d'un élément audio ou d'un courant de données audio
WO2007104877A1 (fr) * 2006-03-13 2007-09-20 France Telecom Synthese et spatialisation sonores conjointes
US8059824B2 (en) 2006-03-13 2011-11-15 France Telecom Joint sound synthesis and spatialization
WO2007106553A1 (fr) * 2006-03-15 2007-09-20 Dolby Laboratories Licensing Corporation Restitution binaurale utilisant des filtres de sous-bandes
EP1999847A4 (fr) * 2006-03-28 2011-10-05 Ericsson Telefon Ab L M Resolution de frequence adaptée au filtre
EP1999847A2 (fr) * 2006-03-28 2008-12-10 Telefonaktiebolaget L M Ericsson (Publ) Resolution de frequence adaptée au filtre
WO2007110519A3 (fr) * 2006-03-28 2007-11-15 France Telecom Procede et dispositif de spatialisation sonore binaurale efficace dans le domaine transforme
FR2899423A1 (fr) * 2006-03-28 2007-10-05 France Telecom Procede et dispositif de spatialisation sonore binaurale efficace dans le domaine transforme.
WO2007110519A2 (fr) * 2006-03-28 2007-10-04 France Telecom Procede et dispositif de spatialisation sonore binaurale efficace dans le domaine transforme
US9080981B2 (en) 2009-12-02 2015-07-14 Lawrence Livermore National Security, Llc Nanoscale array structures suitable for surface enhanced raman scattering and methods related thereto
US9176065B2 (en) 2009-12-02 2015-11-03 Lawrence Livermore National Security, Llc Nanoscale array structures suitable for surface enhanced raman scattering and methods related thereto
US9395304B2 (en) 2012-03-01 2016-07-19 Lawrence Livermore National Security, Llc Nanoscale structures on optical fiber for surface enhanced Raman scattering and methods related thereto
CN108140389A (zh) * 2015-10-08 2018-06-08 高通股份有限公司 空间向量的量化
WO2018185733A1 (fr) 2017-04-07 2018-10-11 A3D Technologies Llc Procédé de spatialisation sonore

Also Published As

Publication number Publication date
ES2271847T3 (es) 2007-04-16
US20060198542A1 (en) 2006-09-07
EP1600042A1 (fr) 2005-11-30
DE602004001868T2 (de) 2007-03-08
EP1600042B1 (fr) 2006-08-09
DE602004001868D1 (de) 2006-09-21
ATE336151T1 (de) 2006-09-15
WO2004080124A1 (fr) 2004-09-16

Similar Documents

Publication Publication Date Title
EP1600042B1 (fr) Procede de traitement de donnees sonores compressees, pour spatialisation
JP5090436B2 (ja) 変換ドメイン内で効率的なバイノーラルサウンド空間化を行う方法およびデバイス
EP2042001B1 (fr) Spatialisation binaurale de donnees sonores encodees en compression
EP2374123B1 (fr) Codage perfectionne de signaux audionumeriques multicanaux
EP1794748B1 (fr) Procédé de traitement de données par passage entre domaines différents de sous-bandes
FR2966634A1 (fr) Codage/decodage parametrique stereo ameliore pour les canaux en opposition de phase
WO2007104882A1 (fr) Dispositif et procede de codage par analyse en composante principale d&#39;un signal audio multi-canal
WO2007101958A2 (fr) Optimisation d&#39;une spatialisation sonore binaurale a partir d&#39;un encodage multicanal
EP2489039A1 (fr) Codage/décodage paramétrique bas débit optimisé
JPWO2008016097A1 (ja) ステレオ音声符号化装置、ステレオ音声復号装置、およびこれらの方法
FR2916078A1 (fr) Procede de codage et decodage audio, codeur audio, decodeur audio et programmes d&#39;ordinateur associes
EP2304721A1 (fr) Synthese spatiale de signaux audio multicanaux
EP2319037A1 (fr) Reconstruction de données audio multicanal
EP1886535A1 (fr) Procede pour produire une pluralite de signaux temporels
EP2145167A2 (fr) Procede de codage et decodage audio, codeur audio, decodeur audio et programmes d&#39;ordinateur associes
EP1994526B1 (fr) Synthese et spatialisation sonores conjointes
EP3025514A1 (fr) Spatialisation sonore avec effet de salle
Touimi et al. Efficient method for multiple compressed audio streams spatialization
WO2006075079A1 (fr) Procede d’encodage de pistes audio d’un contenu multimedia destine a une diffusion sur terminaux mobiles
Pernaux Efficient Method for Multiple Compressed Audio Streams Spatialization
WO2021064311A1 (fr) Détermination de corrections à appliquer a un signal audio multicanal, codage et décodage associés