EP4386338A1 - Real-time optimized audio rendering - Google Patents

Real-time optimized audio rendering Download PDF

Info

Publication number
EP4386338A1
EP4386338A1 EP23215807.1A EP23215807A EP4386338A1 EP 4386338 A1 EP4386338 A1 EP 4386338A1 EP 23215807 A EP23215807 A EP 23215807A EP 4386338 A1 EP4386338 A1 EP 4386338A1
Authority
EP
European Patent Office
Prior art keywords
audio
uwb
user
sound source
walls
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
EP23215807.1A
Other languages
German (de)
French (fr)
Inventor
Pierre Sabatier
Gilles Bourgoin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sagemcom Broadband SAS
Original Assignee
Sagemcom Broadband SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sagemcom Broadband SAS filed Critical Sagemcom Broadband SAS
Publication of EP4386338A1 publication Critical patent/EP4386338A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H7/00Measuring reverberation time ; room acoustic measurements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/08Arrangements for producing a reverberation or echo sound
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/305Electronic adaptation of stereophonic audio signals to reverberation of the listening space

Definitions

  • the invention relates to the field of audio reproduction systems.
  • speakers notably connected speakers, or smart speakers
  • soundbars notably connected speakers, or smart speakers
  • televisions notably voice assistants, smartphones, etc.
  • decoder boxes or STB, for Set-Top Box
  • the audio parameters make it possible to optimize the audio reproduction in the reference position only, and it is therefore necessary repeat the calibration phase each time the user moves.
  • the object of the invention is, in a room in which one or more sound sources are positioned, to optimize the audio reproduction as a function of the current position of a user, without repeating a calibration phase.
  • the simulation carried out during the preliminary phase, therefore makes it possible to obtain reference audio parameters associated with reference positions which can be distributed throughout the room.
  • the master equipment determines the current position of the user and causes the sound sources to apply current audio parameters, which depend on the current position and which are obtained from the reference audio parameters.
  • the audio reproduction is therefore optimized in real time, whatever the position of the user in the room, without it being necessary to repeat the preliminary phase (unless the position of the sound sources and/or the materials of the walls are significantly modified).
  • the acoustic characteristics of the walls include, for each wall, values for different frequencies of an absorption coefficient of a material of the wall or of a category of materials including said material.
  • the reference audio parameters include, for each reference position and for each sound source, gain and phase shift values for different frequencies, associated with said source. sound.
  • At least one of the master equipment comprises a first UWB module, and in which the production of the card and/or the detection of the current position of the user are implemented using the first UWB module.
  • At least one sound source includes a UWB tag , the master equipment being arranged to determine the position of said sound source using a UWB geolocation technique carried out using the first UWB module and the UWB tag .
  • master equipment comprising a first UWB module arranged to carry out geolocation, and a processing unit arranged to implement the audio restitution method as previously described.
  • a computer-readable recording medium is provided on which the program is recorded. computer as previously described.
  • a set-top box 1 In reference to the figure 1 , a set-top box 1, a television 2 and two speakers 3a, 3b are located in a room.
  • the decoder box 1 is connected to the television 2, for example by an HDMI type cable (for High-Definition Multimedia Interface ).
  • the decoder box 1 comprises components 4 conventionally present in a decoder box 1, and in particular components arranged to acquire an audio-video stream coming from any source (satellite television network, Internet connection, BlueRay player, etc. .) and comprising an audio signal and a video signal, and to process and transmit to the equipment to which it is connected (here the television 2 and the speakers 3a, 3b) the audio signal and the video signal for their restitution.
  • the decoder box 1 further comprises two speakers 5, as well as an audio module 6 arranged to acquire, process, amplify audio signals, and transmit them to the speakers 5.
  • the decoder box 1 also comprises a processing unit 7.
  • the processing unit 7 comprises at least one processing component 8 (electronic and/or software), which is for example a "general" processor, a processor specialized in processing signal (or DSP, for Digital Signal Processor ), a microcontroller, or a programmable logic circuit such as an FPGA (for Field Programmable Gate Arrays ) or an ASIC (for Application Specifies Integrated circuit ) .
  • the processing unit 7 also includes one or more memories 9 (and in particular one or more non-volatile memories), connected to or integrated into the processing component 8. At least one of these memories 9 forms a storage medium.
  • computer-readable recording on which is recorded at least one computer program comprising instructions which lead the processing component 8 to execute at least some of the steps of the audio restitution process which will be described below.
  • the decoder box 1 further comprises a first UWB module 10 (for Ultra Wide Band, or Ultra Wide Band), which comprises a UWB communication component 11, a set of at least one UWB antenna 12 and a microcontroller 13.
  • the microcontroller 13 is connected to the processing unit 7 (via a serial link for example).
  • the microcontroller 13 communicates with the UWB communication component 11 and with the processing unit 7.
  • the assembly of at least one UWB antenna 12 here comprises two UWB antennas which are connected to the UWB communication component 11.
  • the first UWB module 10 can thus measure not only the distance between external equipment which itself transmits and receives UWB signals, but also the angle of arrival of the UWB signals emitted by said external equipment.
  • the microcontroller 13 provides the processing unit 7 in particular with location information produced by the first UWB module 10.
  • the audio restitution process is implemented by one or more master devices.
  • the audio restitution process is implemented entirely by the processing unit 7 of the decoder box 1 (which is therefore the master equipment).
  • the room in which the system which has just been described is located belongs to the home of a user 20.
  • the user 20 is provided with mobile equipment 21, a smartphone in this case, which integrates a second UWB module 22.
  • the second UWB module 22 comprises a UWB communication component 23, a set of at least one UWB antenna 24 and a microcontroller 25.
  • the purpose of the audio restitution process is to optimize the audio reproduction produced by the decoder box 1 and the speakers 3a, 3b as a function of the position of the user 20 in the room.
  • the audio restitution process includes a preliminary phase and an operational phase.
  • the preliminary phase can be compared to a calibration phase.
  • the operational phase corresponds to the normal, habitual use of its equipment by the user 20.
  • the audio restitution process optimizes the acoustic experience of the user 20 in real time, depending on his position (and whatever it may be).
  • the preliminary phase first includes a mapping step, which consists of creating a map of the room.
  • This map includes at least the position of each sound source, that is to say in this case of the decoder box 1 and the two speakers 3a, 3b, and a position of the walls 26 of the room.
  • walls we mean all the elements of the room which extend vertically and which delimit the room surface: walls, windows, bay windows, furniture (such as cabinets), etc.
  • mapping step A first embodiment of this mapping step is described.
  • the processing unit 7 of the decoder box 1 first sends a first message to the user 20 to ask the user to take a route along the walls 26 at most near these.
  • the processing unit 7 determines the real-time position of the user 20 when he carries out said route (this is more precisely the position of the smartphone 21), and thus determines the position of the walls 26 in the room from this position in real time.
  • the processing unit 7 therefore assimilates the layout of the route made by the user 20 at the base of the walls 26.
  • the determination of the real-time position of the user 20 is carried out by a UWB geolocation technique using the first UWB module 10 (of the decoder box 1) and the second UWB module 22 (of the smartphone 21).
  • the first UWB module 10 precisely locates the smartphone 21 based on UWB signals emitted by it.
  • the processing unit 7 sends a second message to the user 20 to ask the latter to position the smartphone 21 in the immediate vicinity of the sound source. For example, the user places the smartphone 21 on or against the sound source, or positions himself right next to the sound source. The position of said sound source is then assimilated to the position of the smartphone 21, which is determined by a UWB geolocation technique using the first UWB module 10 and the second UWB module 22.
  • the processing unit 7 then acquires acoustic characteristics of the walls 26.
  • the acoustic characteristics of the walls 26 include, for each wall 26, values for different frequencies of an absorption coefficient of a material of the wall 26.
  • a material of the wall we mean either a material with which is manufactured the wall, either a material of a covering covering the internal wall (room side) of the wall, or a material of any element positioned on or against the wall (a curtain for example).
  • the user uses, for example, an application loaded into his smartphone 21 to enter the type of material of the walls 26 of the room (concrete, glass, curtain, parquet, carpet, etc.).
  • This information is transmitted to the processing unit 7 via any communication channel between the smartphone 21 and the decoder box 1 (for example via Wi-Fi, Bluetooth, etc.).
  • the processing unit 7 uses a table 27 stored in one of the memories 9 (non-volatile). Table 27 associates an absorption coefficient for each frequency with each material.
  • table 27 associates, for each general category of materials and for several frequencies, an absorption coefficient associated with said general category and with said frequency.
  • sound absorption coefficient of the material General category of materials 125Hz 250Hz 500Hz 1kHz 2kHz 4kHz Windows - untreated floor/wall 0.10 0.10 0.10 0.10 0.10 0.10 0.10 Hangings - curtains - carpet 0.10 0.20 0.40 0.50 0.65 0.60 Absorbent treatment 0.20 0.55 0.60 0.70 0.80 0.90
  • the processing unit 7 then carries out a simulation, using the map and the acoustic characteristics of the walls 26, to simulate propagation in the room of sounds emitted by the sound sources
  • the simulation uses a ray tracing technique. This technique makes it possible to define the acoustic impact of the room on the acoustic propagation of sound waves generated by the sound sources: decoder box 1 and speakers 3a, 3b.
  • This technique consists of shooting rays from a sound source towards the measurement point by taking into account the paths with reflections from the walls, and summing the contributions of each ray.
  • This simulation therefore reproduces, for each reference position of a plurality of reference positions, the path of the sound rays between each sound source and said reference position, taking into account the reflections on the walls and the ceiling.
  • 0.5.
  • the level of the reflected sound wave is then equal to the level of the incident sound wave divided by 2 (i.e. an attenuation of 6 dB).
  • Calculating ray tracing is equivalent to positioning a room microphone via its physical measurement. All necessary data is calculated, as for a microphone calibration. All the attenuation data of the listening point in relation to the different speakers are thus calculated. Data for immersive sound processing is calculated to compensate for distances and reflections.
  • the processing unit 7 produces, for each reference position of the plurality of reference positions, and for each sound source, reference audio parameters making it possible to optimize audio reproduction of said source. sound in said reference position.
  • the reference audio parameters include, for each reference position and for each sound source, gain and phase shift values for different frequencies, associated with said sound source.
  • the reference positions of the plurality of reference positions are here nodes of a mesh having a mesh of predefined length.
  • a card 31 was produced by the decoder box 1.
  • the decoder box 1 and the speakers 3a, 3b are located in a parallelepiped living room of 6 mx 10 m.
  • the mesh 32 is defined on this map 31.
  • the mesh is for example equal to 1m.
  • a virtual listener 33 which, of course, does not actually appear on the map 31.
  • the virtual listener is positioned on one of the nodes 34 of the mesh 32.
  • Enclosure 3a is positioned on one of the nodes of the mesh.
  • the reference positions correspond to the mesh nodes.
  • N and S are not acoustically treated, so that they have an average absorption coefficient ⁇ equal to 0.1 to 1 kHz (see table above) .
  • results of the ray tracing simulation give, for a given frequency, an amplification of the sound level at the level of the virtual listener 33 of +10.1 dB compared to the signal in the free field.
  • This amplification must be compensated, at the given frequency (here 1 kHz), by a gain value of -10.1 dB.
  • This gain value is one of the reference audio parameters associated with the given frequency and the reference position in the room corresponding to the position of the virtual listener 33.
  • this calculation can be refined by integrating the directivity of the sound source speaker according to the frequencies.
  • the results of this new simulation are visible on the Figure 9 .
  • the simulation makes it possible to obtain, for each reference position, that is to say for each node 34 of the grid 32, and for each sound source, a transfer function defining a gain (function of the frequency) and a phase shift (function of frequency).
  • a loudspeaker is considered to form a sound source. Consequently, multi-way speakers comprising a plurality of speakers are considered as so many sound sources positioned in the same place (and possibly with the same orientation).
  • the reference audio parameters are recorded in one of the memories 9 (non-volatile) of the processing unit 7.
  • the operational phase can begin.
  • the processing unit 7 of the decoder box 1 determines in real time the current position of the user 20 in the room when he listens to an audio signal reproduced by the decoder box 1 and the speakers 3a , 3b.
  • the determination of the current position of the user 20 is carried out by a UWB geolocation technique carried out using the first UWB module 10 and the second UWB module 22.
  • the processing unit 7 then restores the audio signal by the sound sources by applying current audio parameters obtained from the reference audio parameters and which depend on the current position.
  • the current audio parameters which are applied are the reference audio parameters of a node 34 closest to the current position of the user 20.
  • the current audio parameters which are applied are obtained by averaging reference audio parameters of several nodes 34 closest to the current position of the user 20. Averaging makes it possible to avoid too abrupt transitions when the user 20 moves.
  • the processing unit 7 of the decoder box 1 transmits in real time the current audio parameters (F1 (x, y), F2 (x, y), etc.), associated with the current position of the user 20, at audio module 6 of the decoder box 1 and to the audio module 35 of each speaker 3a, 3b.
  • the current audio parameters F1 (x, y), F2 (x, y), etc.
  • the audio module 6, 35 of each sound source acquires the current audio parameters which are assigned to said sound source, carries out processing to apply said current audio parameters, and restores the audio signal.
  • the processing unit 7 therefore controls the sound sources so that they reproduce the audio signal by applying the current audio parameters.
  • UWB modules could include different components than those described here.
  • the microcontroller and/or the UWB communication component of the first UWB module could for example be integrated into the processing unit.
  • Determining the position of the walls, used to produce the room map could be done in a different way.
  • the user's smartphone or any other mobile equipment
  • includes a LiDAR sensor for Light Detection And Ranging, which can be translated as detection and estimation of the distance by light
  • UWB radar technology can also be used to map the room.
  • the decoder box can thus integrate a UWB radar.
  • the UWB radar positions echoes in the room in polar coordinates.
  • the echoes are then analyzed to form a model of the room and to define the position of the walls, the angles between them, etc.
  • the radar method also makes it possible to analyze the movement of a person, who can, as previously, move through the room, in synchronization with their smartphone (or other mobile equipment) and the specific application in order to carry out the calibration part of the room (route around the perimeter of the room, position of sound sources). Via the smartphone application, surface reflection data can also be entered, to return to the calibration of the room described above.
  • the user's current position could also be determined by the set-top box using UWB radar technology.
  • determining the position of sound sources could be carried out differently.
  • a speaker could, for example, be equipped with a UWB tag (or UWB label).
  • the decoder box can then determine the position of said sound source using a UWB geolocation technique carried out using the first UWB module and the UWB tag .
  • the invention could be implemented in other master equipment, for example in a connected speaker, or in the user's smartphone.
  • the invention can perfectly be implemented in a single master piece of equipment, as is also described here, in particular when the processing unit integrates a processing component powerful enough to carry out the simulation (DSP type).
  • the set-top box could carry out the mapping step (alone or in cooperation with other equipment, such as a smartphone, as described here), and transmit the map or its constituent elements to a server of the cloud on which the simulation is carried out.
  • the decoder box then recovers the reference audio parameters and controls the operational phase.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Stereophonic System (AREA)

Abstract

Procédé comportant les étapes préliminaires de :- réaliser une carte (31) d'une pièce dans laquelle se trouvent une ou des sources sonores (1, 3a, 3b) ;- acquérir des caractéristiques acoustiques des murs ;- réaliser une simulation, en utilisant la carte et les caractéristiques acoustiques, d'une propagation dans la pièce de sons émis par les sources sonores ;- produire des paramètres audio de référence ;le procédé comportant en outre les étapes opérationnelles de :- déterminer une position courante d'un utilisateur dans la pièce ;- faire restituer un signal audio par les sources sonores en appliquant des paramètres audio courants obtenus à partir des paramètres audio de référence et qui dépendent de la position courante.Method comprising the preliminary steps of: - producing a map (31) of a room in which there are one or more sound sources (1, 3a, 3b); - acquiring acoustic characteristics of the walls; - carrying out a simulation, using the map and the acoustic characteristics, of a propagation in the room of sounds emitted by the sound sources; - producing reference audio parameters; the method further comprising the operational steps of: - determining a current position of a user in the room; - restore an audio signal by the sound sources by applying current audio parameters obtained from the reference audio parameters and which depend on the current position.

Description

L'invention concerne le domaine des systèmes de restitution audio.The invention relates to the field of audio reproduction systems.

ARRIERE PLAN DE L'INVENTIONBACKGROUND OF THE INVENTION

De nombreux équipements sont aujourd'hui munis de haut-parleurs et proposent une restitution audio d'excellente qualité.Many pieces of equipment today are equipped with speakers and offer excellent quality audio reproduction.

Parmi ces équipements, on trouve bien sûr des enceintes (notamment des enceintes connectées, ou smart speakers), des barres de son, des téléviseurs, des assistants vocaux, des smartphones, etc. On trouve aussi désormais des boîtiers décodeurs (ou STB, pour Set-Top Box) améliorés, munis de haut-parleurs.Among this equipment, we of course find speakers (notably connected speakers, or smart speakers ) , soundbars, televisions, voice assistants, smartphones, etc. We also now find improved decoder boxes (or STB, for Set-Top Box ), equipped with speakers.

Lorsqu'un utilisateur possède plusieurs équipements de restitution audio récents, il peut généralement les configurer pour former un système multicanal.When a user has several recent audio reproduction devices, they can generally configure them to form a multi-channel system.

Pour améliorer encore l'expérience utilisateur, on cherche à optimiser la qualité de la restitution audio en fonction de la position de l'utilisateur dans la pièce dans laquelle sont situés les équipements de restitution audio.To further improve the user experience, we seek to optimize the quality of the audio reproduction according to the position of the user in the room in which the audio reproduction equipment is located.

On connaît ainsi un système qui met en oeuvre une phase de calibration consistant à positionner un microphone dans une position de référence, puis à commander les équipements de restitution audio pour que ceux-ci produisent un signal sonore de test, qui est capturé par le microphone. Le résultat de la capture est utilisé pour ajuster les paramètres audio (retard et égalisation) de chaque équipement de restitution audio.We thus know a system which implements a calibration phase consisting of positioning a microphone in a reference position, then controlling the audio restitution equipment so that it produces a test sound signal, which is captured by the microphone . The result of the capture is used to adjust the audio parameters (delay and equalization) of each audio reproduction device.

Ce système présente l'inconvénient suivant. Les paramètres audio permettent d'optimiser la restitution audio dans la position de référence uniquement, et il faut donc réitérer la phase de calibration à chaque fois que l'utilisateur se déplace.This system has the following disadvantage. The audio parameters make it possible to optimize the audio reproduction in the reference position only, and it is therefore necessary repeat the calibration phase each time the user moves.

On connaît aussi un système qui comprend une pluralité d'enceintes munies chacune d'un microphone. Ce système réalise la phase de calibration suivante. L'utilisateur se positionne dans une position de référence. Il prononce alors un mot-clé qui est capturé par le microphone de chaque enceinte, ce qui permet de déterminer les distances entre les différentes enceintes et l'utilisateur. Les paramètres audio permettent d'optimiser la restitution audio dans la position de référence. Cependant, à nouveau, dans ce système, la phase de calibration doit être réitérée à chaque fois que l'utilisateur se déplace.We also know a system which comprises a plurality of speakers each provided with a microphone. This system carries out the following calibration phase. The user positions himself in a reference position. He then pronounces a keyword which is captured by the microphone of each speaker, which makes it possible to determine the distances between the different speakers and the user. The audio parameters allow you to optimize the audio reproduction in the reference position. However, again, in this system, the calibration phase must be repeated each time the user moves.

OBJET DE L'INVENTIONOBJECT OF THE INVENTION

L'invention a pour objet, dans une pièce dans laquelle sont positionnées une ou plusieurs sources sonores, d'optimiser la restitution audio en fonction de la position courante d'un utilisateur, sans réitérer de phase de calibration.The object of the invention is, in a room in which one or more sound sources are positioned, to optimize the audio reproduction as a function of the current position of a user, without repeating a calibration phase.

RESUME DE L'INVENTIONSUMMARY OF THE INVENTION

En vue de la réalisation de ce but, on propose un procédé de restitution audio, mis en oeuvre par un ou des équipements maîtres, et comportant une phase préliminaire comprenant les étapes de :

  • réaliser une carte d'une pièce dans laquelle se trouvent une ou des sources sonores, qui comprend une position de chaque source sonore et une position de murs de la pièce ;
  • acquérir des caractéristiques acoustiques des murs ;
  • réaliser une simulation, en utilisant la carte et les caractéristiques acoustiques des murs, pour simuler une propagation dans la pièce de sons émis par les sources sonores ;
  • à partir de résultats de la simulation, produire, pour chaque position de référence d'une pluralité de positions de référence définies dans la pièce, et pour chaque source sonore, des paramètres audio de référence permettant d'optimiser une restitution audio de ladite source sonore dans ladite position de référence ;
le procédé de restitution audio comportant en outre une phase opérationnelle comprenant les étapes, réalisées en temps réel, de :
  • déterminer une position courante d'un utilisateur dans la pièce ;
  • faire restituer un signal audio par les sources sonores en appliquant des paramètres audio courants obtenus à partir des paramètres audio de référence et qui dépendent de la position courante.
With a view to achieving this goal, we propose an audio restitution process, implemented by one or more master devices, and comprising a preliminary phase comprising the steps of:
  • produce a map of a room in which one or more sound sources are located, which includes a position of each sound source and a position of the walls of the room;
  • acquire acoustic characteristics of the walls;
  • carry out a simulation, using the map and the acoustic characteristics of the walls, to simulate propagation in the room of sounds emitted by sound sources;
  • from simulation results, produce, for each reference position of a plurality of reference positions defined in the room, and for each sound source, reference audio parameters making it possible to optimize audio reproduction of said sound source in said reference position;
the audio restitution process further comprising an operational phase comprising the steps, carried out in real time, of:
  • determine a current position of a user in the room;
  • restore an audio signal by the sound sources by applying current audio parameters obtained from the reference audio parameters and which depend on the current position.

La simulation, réalisée au cours de la phase préliminaire, permet donc d'obtenir des paramètres audio de référence associés à des positions de référence qui peuvent être réparties dans toute la pièce.The simulation, carried out during the preliminary phase, therefore makes it possible to obtain reference audio parameters associated with reference positions which can be distributed throughout the room.

Au cours de la phase opérationnelle, l'équipement maître détermine la position courante de l'utilisateur et fait appliquer par les sources sonores des paramètres audio courants, qui dépendent de la position courante et qui sont obtenus à partir des paramètres audio de référence.During the operational phase, the master equipment determines the current position of the user and causes the sound sources to apply current audio parameters, which depend on the current position and which are obtained from the reference audio parameters.

La restitution audio est donc optimisée en temps réel, quelle que soit la position de l'utilisateur dans la pièce, sans qu'il ne soit nécessaire de réitérer la phase préliminaire (sauf si la position des sources sonores et/ou les matériaux des murs sont modifiés de manière significative).The audio reproduction is therefore optimized in real time, whatever the position of the user in the room, without it being necessary to repeat the preliminary phase (unless the position of the sound sources and/or the materials of the walls are significantly modified).

On propose de plus un procédé de restitution audio tel que précédemment décrit, dans lequel la simulation utilise une technique de lancer de rayons.We also propose an audio restitution method as previously described, in which the simulation uses a ray tracing technique.

On propose de plus un procédé de restitution audio tel que précédemment décrit, dans lequel les caractéristiques acoustiques des murs comprennent, pour chaque mur, des valeurs pour différentes fréquences d'un coefficient d'absorption d'un matériau du mur ou d'une catégorie de matériaux incluant ledit matériau.We also propose an audio restitution method as previously described, in which the acoustic characteristics of the walls include, for each wall, values for different frequencies of an absorption coefficient of a material of the wall or of a category of materials including said material.

On propose de plus un procédé de restitution audio tel que précédemment décrit, dans lequel les paramètres audio de référence comprennent, pour chaque position de référence et pour chaque source sonore, des valeurs de gain et de déphasage pour différentes fréquences, associées à ladite la source sonore.We further propose an audio restitution method as previously described, in which the reference audio parameters include, for each reference position and for each sound source, gain and phase shift values for different frequencies, associated with said source. sound.

On propose de plus un procédé de restitution audio tel que précédemment décrit, dans lequel les positions de référence de la pluralité de positions de référence sont des noeuds d'un maillage ayant une maille de longueur prédéfinie.We further propose an audio restitution method as previously described, in which the reference positions of the plurality of reference positions are nodes of a mesh having a mesh of predefined length.

On propose de plus un procédé de restitution audio tel que précédemment décrit, dans lequel, au cours de la phase opérationnelle, les paramètres audio courants qui sont appliqués sont les paramètres audio de référence d'un noeud le plus proche de la position courante.We further propose an audio restitution method as previously described, in which, during the operational phase, the current audio parameters which are applied are the reference audio parameters of a node closest to the current position.

On propose de plus un procédé de restitution audio tel que précédemment décrit, dans lequel, au cours de la phase opérationnelle, les paramètres audio courants qui sont appliqués sont obtenus en moyennant des paramètres audio de référence de plusieurs noeuds les plus proches de la position courante.We further propose an audio restitution method as previously described, in which, during the operational phase, the current audio parameters which are applied are obtained by averaging reference audio parameters of several nodes closest to the current position .

On propose de plus un procédé de restitution audio tel que précédemment décrit, dans lequel au moins l'un des équipements maîtres comprend un premier module UWB, et dans lequel la réalisation de la carte et/ou la détection de la position courante de l'utilisateur sont mises en oeuvre en utilisant le premier module UWB.We further propose an audio restitution method as previously described, in which at least one of the master equipment comprises a first UWB module, and in which the production of the card and/or the detection of the current position of the user are implemented using the first UWB module.

On propose de plus un procédé de restitution audio tel que précédemment décrit, dans lequel la phase préliminaire comprend les étapes, pour déterminer la position des murs, de :

  • émettre un premier message à destination de l'utilisateur pour demander à celui-ci d'effectuer un parcours longeant les murs au plus près de ceux-ci ;
  • déterminer la position en temps réel de l'utilisateur lorsque celui-ci effectue ledit parcours, et déterminer la position des murs à partir de cette position en temps réel.
We also propose an audio restitution method as previously described, in which the preliminary phase includes the steps, to determine the position of the walls, of:
  • send a first message to the user to ask the user to take a route along the walls as close as possible to them;
  • determine the real-time position of the user when he or she performs said route, and determine the position of the walls from this real-time position.

On propose de plus un procédé de restitution audio tel que précédemment décrit, dans lequel l'utilisateur est muni lorsqu'il effectue ledit parcours d'un équipement mobile comportant un deuxième module UWB, la détermination de la position en temps réel de l'utilisateur étant réalisée par une technique de géolocalisation UWB en utilisant le premier module UWB et le deuxième module UWB.We further propose an audio restitution method as previously described, in which the user is provided when carrying out said route with mobile equipment comprising a second UWB module, the determination of the real-time position of the user being carried out by a UWB geolocation technique using the first UWB module and the second UWB module.

On propose de plus un procédé de restitution audio tel que précédemment décrit, dans lequel, au cours de la phase opérationnelle, l'utilisateur est muni d'un équipement mobile comportant un deuxième module UWB, la détermination de la position courante de l'utilisateur étant réalisée par une technique de géolocalisation UWB réalisée en utilisant le premier module UWB et le deuxième module UWB.We further propose an audio restitution method as previously described, in which, during the operational phase, the user is provided with mobile equipment comprising a second UWB module, the determination of the current position of the user being carried out by a UWB geolocation technique carried out using the first UWB module and the second UWB module.

On propose de plus un procédé de restitution audio tel que précédemment décrit, dans lequel le premier module UWB est agencé pour mettre en oeuvre une technologie de radar UWB, la détermination de la position des murs de la pièce étant réalisée par l'équipement maître en utilisant ladite technologie de radar UWB.We also propose an audio restitution method as previously described, in which the first UWB module is arranged to implement UWB radar technology, the determination of the position of the walls of the room being carried out by the master equipment in using said UWB radar technology.

On propose de plus un procédé de restitution audio tel que précédemment décrit, dans lequel l'utilisateur, au cours de la phase préliminaire, est muni d'un équipement mobile comportant un deuxième module UWB, la phase préliminaire comprenant l'étape, pour au moins une source sonore, d'émettre un deuxième message à destination de l'utilisateur pour demander à celui-ci de positionner l'équipement mobile à proximité immédiate de la source sonore, la position de ladite source sonore étant alors assimilée à la position de l'équipement mobile, qui est déterminée par une technique de géolocalisation UWB en utilisant le premier module UWB et le deuxième module UWB.We further propose an audio restitution method as previously described, in which the user, during the preliminary phase, is provided with mobile equipment comprising a second UWB module, the preliminary phase comprising the step, for at less a sound source, to send a second message to the user to ask the latter to position the mobile equipment in the immediate vicinity of the sound source, the position of said sound source then being assimilated to the position of the mobile equipment, which is determined by a UWB geolocation technique using the first UWB module and the second UWB module.

On propose de plus un procédé de restitution audio tel que précédemment décrit, dans lequel au moins une source sonore comporte un tag UWB, l'équipement maître étant agencé pour déterminer la position de ladite source sonore en utilisant une technique de géolocalisation UWB réalisée en utilisant le premier module UWB et le tag UWB.We also propose an audio restitution method as previously described, in which at least one sound source includes a UWB tag , the master equipment being arranged to determine the position of said sound source using a UWB geolocation technique carried out using the first UWB module and the UWB tag .

On propose de plus un équipement maître comportant un premier module UWB agencé pour réaliser une géolocalisation, et une unité de traitement agencée pour mettre en oeuvre le procédé de restitution audio tel que précédemment décrit.We also propose master equipment comprising a first UWB module arranged to carry out geolocation, and a processing unit arranged to implement the audio restitution method as previously described.

On propose de plus un équipement maître tel que précédemment décrit, l'équipement maître étant un boîtier décodeur.We also propose master equipment as previously described, the master equipment being a decoder box.

On propose de plus un programme d'ordinateur comprenant des instructions qui conduisent l'unité de traitement de l'équipement maître tel que précédemment décrit à exécuter les étapes du procédé de restitution audio tel que précédemment décrit.We further propose a computer program comprising instructions which lead the processing unit of the master equipment as previously described to execute the steps of the audio restitution method as previously described.

On propose de plus un support d'enregistrement lisible par ordinateur, sur lequel est enregistré le programme d'ordinateur tel que précédemment décrit.In addition, a computer-readable recording medium is provided on which the program is recorded. computer as previously described.

L'invention sera mieux comprise à la lumière de la description qui suit de modes de mise en oeuvre particuliers non limitatifs de l'invention.The invention will be better understood in the light of the following description of particular non-limiting modes of implementation of the invention.

BREVE DESCRIPTION DES DESSINSBRIEF DESCRIPTION OF THE DRAWINGS

Il sera fait référence aux dessins annexés parmi lesquels :

  • [Fig. 1] la figure 1 représente une pièce vue de dessus, dans laquelle sont positionnés un boîtier décodeur, un téléviseur et deux enceintes ;
  • [Fig. 2] la figure 2 représente un boîtier décodeur dans lequel est mise en oeuvre l'invention ;
  • [Fig. 3] la figure 3 illustre la technique du lancer de rayons et représente les rayons sonores entre une source et une position de référence (un seul rayon en l'occurrence), sans réflexion sur les murs ;
  • [Fig. 4] la figure 4 est une figure similaire à la figure 3, avec une réflexion sur les murs ;
  • [Fig. 5] la figure 5 est une figure similaire à la figure 3, avec deux réflexions sur les murs ;
  • [Fig. 6] la figure 6 est une figure similaire à la figure 3, avec trois réflexions sur les murs ;
  • [Fig. 7] la figure 7 représente une carte réalisée au cours de l'étape de cartographie, sur laquelle est représentée en plus un auditeur virtuel ;
  • [Fig. 8] la figure 8 représente des résultats de la simulation par lancer de rayons ;
  • [Fig. 9] la figure 9 est une figure similaire à la figure 8, obtenue en tenant compte de la directivité de l'enceinte de la source sonore ;
  • [Fig. 10] la figure 10 illustre la transmission des paramètres audio courants du boîtier décodeur aux sources sonores, et la restitution d'un signal audio.
Reference will be made to the appended drawings including:
  • [ Fig. 1 ] there figure 1 represents a room seen from above, in which a decoder box, a television and two speakers are positioned;
  • [ Fig. 2 ] there figure 2 represents a decoder box in which the invention is implemented;
  • [ Fig. 3 ] there Figure 3 illustrates the ray tracing technique and represents sound rays between a source and a reference position (a single ray in this case), without reflection on the walls;
  • [ Fig. 4 ] there Figure 4 is a figure similar to the Figure 3 , with a reflection on the walls;
  • [ Fig. 5 ] there figure 5 is a figure similar to the Figure 3 , with two reflections on the walls;
  • [ Fig. 6 ] there Figure 6 is a figure similar to the Figure 3 , with three reflections on the walls;
  • [ Fig. 7 ] there figure 7 represents a map produced during the mapping step, on which a virtual listener is also represented;
  • [ Fig. 8 ] there figure 8 represents ray tracing simulation results;
  • [ Fig. 9 ] there Figure 9 is a figure similar to the figure 8 , obtained by taking into account the directivity of the sound source enclosure;
  • [ Fig. 10 ] there Figure 10 illustrates the transmission of current audio parameters from the set-top box to sound sources, and the restitution of an audio signal.

DESCRIPTION DETAILLEE DE L'INVENTIONDETAILED DESCRIPTION OF THE INVENTION

En référence à la figure 1, un boîtier décodeur 1, un téléviseur 2 et deux enceintes 3a, 3b sont situés dans une pièce.In reference to the figure 1 , a set-top box 1, a television 2 and two speakers 3a, 3b are located in a room.

Le boîtier décodeur 1 est relié au téléviseur 2, par exemple par un câble de type HDMI (pour High-Definition Multimedia Interface).The decoder box 1 is connected to the television 2, for example by an HDMI type cable (for High-Definition Multimedia Interface ).

En référence à la figure 2, le boîtier décodeur 1 comprend des composants 4 classiquement présents dans un boîtier décodeur 1, et notamment des composants agencés pour acquérir un flux audio-vidéo provenant d'une source quelconque (réseau de télévision par satellite, connexion Internet, lecteur de BlueRay, etc.) et comprenant un signal audio et un signal vidéo, et pour traiter et transmettre aux équipements auxquels il est connecté (ici le téléviseur 2 et les enceintes 3a, 3b) le signal audio et le signal vidéo pour leur restitution.In reference to the figure 2 , the decoder box 1 comprises components 4 conventionally present in a decoder box 1, and in particular components arranged to acquire an audio-video stream coming from any source (satellite television network, Internet connection, BlueRay player, etc. .) and comprising an audio signal and a video signal, and to process and transmit to the equipment to which it is connected (here the television 2 and the speakers 3a, 3b) the audio signal and the video signal for their restitution.

Le boîtier décodeur 1 comprend de plus deux haut-parleurs 5, ainsi qu'un module audio 6 agencé pour acquérir, traiter, amplifier des signaux audio, et les transmettre aux haut-parleurs 5.The decoder box 1 further comprises two speakers 5, as well as an audio module 6 arranged to acquire, process, amplify audio signals, and transmit them to the speakers 5.

Le boîtier décodeur 1 comprend aussi une unité de traitement 7. L'unité de traitement 7 comprend au moins un composant de traitement 8 (électronique et/ou logiciel), qui est par exemple un processeur « généraliste », un processeur spécialisé dans le traitement du signal (ou DSP, pour Digital Signal Processor), un microcontrôleur, ou bien un circuit logique programmable tel qu'un FPGA (pour Field Programmable Gate Arrays) ou un ASIC (pour Application Spécifie Integrated Circuit). L'unité de traitement 7 comprend aussi une ou des mémoires 9 (et notamment une ou des mémoires non-volatiles), reliées à ou intégrées dans le composant de traitement 8. Au moins l'une de ces mémoires 9 forme un support d'enregistrement lisible par ordinateur, sur lequel est enregistré au moins un programme d'ordinateur comprenant des instructions qui conduisent le composant de traitement 8 à exécuter au moins certaines des étapes du procédé de restitution audio qui sera décrit plus bas.The decoder box 1 also comprises a processing unit 7. The processing unit 7 comprises at least one processing component 8 (electronic and/or software), which is for example a "general" processor, a processor specialized in processing signal (or DSP, for Digital Signal Processor ), a microcontroller, or a programmable logic circuit such as an FPGA (for Field Programmable Gate Arrays ) or an ASIC (for Application Specifies Integrated circuit ) . The processing unit 7 also includes one or more memories 9 (and in particular one or more non-volatile memories), connected to or integrated into the processing component 8. At least one of these memories 9 forms a storage medium. computer-readable recording, on which is recorded at least one computer program comprising instructions which lead the processing component 8 to execute at least some of the steps of the audio restitution process which will be described below.

Le boîtier décodeur 1 comprend de plus un premier module UWB 10 (pour Ultra Wide Band, ou Ultra Large Bande), qui comporte un composant de communication UWB 11, un ensemble d'au moins une antenne UWB 12 et un microcontrôleur 13. Le microcontrôleur 13 est relié à l'unité de traitement 7 (via une liaison série par exemple). Le microcontrôleur 13 dialogue avec le composant de communication UWB 11 et avec l'unité de traitement 7.The decoder box 1 further comprises a first UWB module 10 (for Ultra Wide Band, or Ultra Wide Band), which comprises a UWB communication component 11, a set of at least one UWB antenna 12 and a microcontroller 13. The microcontroller 13 is connected to the processing unit 7 (via a serial link for example). The microcontroller 13 communicates with the UWB communication component 11 and with the processing unit 7.

L'ensemble d'au moins une antenne UWB 12 comprend ici deux antennes UWB qui sont reliées au composant de communication UWB 11.The assembly of at least one UWB antenna 12 here comprises two UWB antennas which are connected to the UWB communication component 11.

Le premier module UWB 10 peut ainsi mesurer non seulement la distance entre un équipement externe qui lui-même émet et reçoit des signaux UWB, mais aussi l'angle d'arrivée des signaux UWB émis par ledit équipement externe.The first UWB module 10 can thus measure not only the distance between external equipment which itself transmits and receives UWB signals, but also the angle of arrival of the UWB signals emitted by said external equipment.

Le microcontrôleur 13 fournit en particulier à l'unité de traitement 7 des informations de localisation produites par le premier module UWB 10.The microcontroller 13 provides the processing unit 7 in particular with location information produced by the first UWB module 10.

Le procédé de restitution audio est mis en oeuvre par un ou des équipements maîtres. Ici, et de manière non limitative, le procédé de restitution audio est mis en oeuvre entièrement par l'unité de traitement 7 du boîtier décodeur 1 (qui est donc l'équipement maître).The audio restitution process is implemented by one or more master devices. Here, and in a non-limiting manner, the audio restitution process is implemented entirely by the processing unit 7 of the decoder box 1 (which is therefore the master equipment).

La pièce, dans laquelle se trouve le système qui vient d'être décrit, appartient à l'habitation d'un utilisateur 20.The room in which the system which has just been described is located belongs to the home of a user 20.

L'utilisateur 20 est muni d'un équipement mobile 21, un smartphone en l'occurrence, qui intègre un deuxième module UWB 22. Le deuxième module UWB 22 comporte un composant de communication UWB 23, un ensemble d'au moins une antenne UWB 24 et un microcontrôleur 25.The user 20 is provided with mobile equipment 21, a smartphone in this case, which integrates a second UWB module 22. The second UWB module 22 comprises a UWB communication component 23, a set of at least one UWB antenna 24 and a microcontroller 25.

Le procédé de restitution audio a pour but d'optimiser la restitution audio réalisée par le boîtier décodeur 1 et les enceintes 3a, 3b en fonction de la position de l'utilisateur 20 dans la pièce.The purpose of the audio restitution process is to optimize the audio reproduction produced by the decoder box 1 and the speakers 3a, 3b as a function of the position of the user 20 in the room.

Le procédé de restitution audio comprend une phase préliminaire et une phase opérationnelle.The audio restitution process includes a preliminary phase and an operational phase.

La phase préliminaire peut être assimilée à une phase de calibration.The preliminary phase can be compared to a calibration phase.

La phase opérationnelle, quant à elle, correspond à l'utilisation normale, habituelle de ses équipements par l'utilisateur 20. Lorsque l'utilisateur 20 se déplace dans la pièce et qu'il écoute un contenu audio, le procédé de restitution audio optimise l'expérience acoustique de l'utilisateur 20 en temps réel, en fonction de sa position (et quelle que soit celle-ci).The operational phase, for its part, corresponds to the normal, habitual use of its equipment by the user 20. When the user 20 moves around the room and listens to audio content, the audio restitution process optimizes the acoustic experience of the user 20 in real time, depending on his position (and whatever it may be).

La phase préliminaire comprend tout d'abord une étape de cartographie, qui consiste à réaliser une carte de la pièce. Cette carte comprend au moins la position de chaque source sonore, c'est-à-dire en l'occurrence ici du boîtier décodeur 1 et des deux enceintes 3a, 3b, et une position des murs 26 de la pièce.The preliminary phase first includes a mapping step, which consists of creating a map of the room. This map includes at least the position of each sound source, that is to say in this case of the decoder box 1 and the two speakers 3a, 3b, and a position of the walls 26 of the room.

Ici, par « murs », on entend tous les éléments de la pièce qui s'étendent verticalement et qui délimitent la surface de la pièce : murs, fenêtres, baies vitrées, meubles (tels que des armoires), etc.Here, by “walls”, we mean all the elements of the room which extend vertically and which delimit the room surface: walls, windows, bay windows, furniture (such as cabinets), etc.

On décrit un premier mode de réalisation de cette étape de cartographie.A first embodiment of this mapping step is described.

Pour déterminer la position des murs 26, l'unité de traitement 7 du boîtier décodeur 1 émet tout d'abord un premier message à destination de l'utilisateur 20 pour demander à celui-ci d'effectuer un parcours longeant les murs 26 au plus près de ceux-ci.To determine the position of the walls 26, the processing unit 7 of the decoder box 1 first sends a first message to the user 20 to ask the user to take a route along the walls 26 at most near these.

L'unité de traitement 7 détermine la position en temps réel de l'utilisateur 20 lorsque celui-ci effectue ledit parcours (il s'agit plus précisément de la position du smartphone 21), et détermine ainsi la position des murs 26 dans la pièce à partir de cette position en temps réel. L'unité de traitement 7 assimile donc le tracé du parcours réalisé par l'utilisateur 20 à la base des murs 26.The processing unit 7 determines the real-time position of the user 20 when he carries out said route (this is more precisely the position of the smartphone 21), and thus determines the position of the walls 26 in the room from this position in real time. The processing unit 7 therefore assimilates the layout of the route made by the user 20 at the base of the walls 26.

La détermination de la position en temps réel de l'utilisateur 20 est réalisée par une technique de géolocalisation UWB en utilisant le premier module UWB 10 (du boîtier décodeur 1) et le deuxième module UWB 22 (du smartphone 21). Comme on l'a vu plus tôt, le premier module UWB 10 localise précisément le smartphone 21 à partir de signaux UWB émis par celui-ci.The determination of the real-time position of the user 20 is carried out by a UWB geolocation technique using the first UWB module 10 (of the decoder box 1) and the second UWB module 22 (of the smartphone 21). As seen earlier, the first UWB module 10 precisely locates the smartphone 21 based on UWB signals emitted by it.

Pour déterminer la position de chaque source sonore, l'unité de traitement 7 émet un deuxième message à destination de l'utilisateur 20 pour demander à celui-ci de positionner le smartphone 21 à proximité immédiate de la source sonore. Par exemple, l'utilisateur place le smartphone 21 sur ou contre la source sonore, ou bien se positionne lui-même juste à côté de la source sonore. La position de ladite source sonore est alors assimilée à la position du smartphone 21, qui est déterminée par une technique de géolocalisation UWB en utilisant le premier module UWB 10 et le deuxième module UWB 22.To determine the position of each sound source, the processing unit 7 sends a second message to the user 20 to ask the latter to position the smartphone 21 in the immediate vicinity of the sound source. For example, the user places the smartphone 21 on or against the sound source, or positions himself right next to the sound source. The position of said sound source is then assimilated to the position of the smartphone 21, which is determined by a UWB geolocation technique using the first UWB module 10 and the second UWB module 22.

Bien sûr, ici, cela ne concerne que les enceintes 3a, 3b car la position du boîtier décodeur 1 (en tant que source sonore) est connue.Of course, here, this only concerns speakers 3a, 3b because the position of decoder box 1 (as sound source) is known.

L'unité de traitement 7 acquiert ensuite des caractéristiques acoustiques des murs 26.The processing unit 7 then acquires acoustic characteristics of the walls 26.

Les caractéristiques acoustiques des murs 26 comprennent, pour chaque mur 26, des valeurs pour différentes fréquences d'un coefficient d'absorption d'un matériau du mur 26. Par « un matériau du mur », on entend soit un matériau avec lequel est fabriqué le mur, soit un matériau d'un revêtement recouvrant la paroi interne (côté pièce) du mur, soit un matériau d'un élément quelconque positionné sur ou contre le mur (une tenture par exemple).The acoustic characteristics of the walls 26 include, for each wall 26, values for different frequencies of an absorption coefficient of a material of the wall 26. By "a material of the wall", we mean either a material with which is manufactured the wall, either a material of a covering covering the internal wall (room side) of the wall, or a material of any element positioned on or against the wall (a curtain for example).

L'utilisateur utilise par exemple une application chargée dans son smartphone 21 pour renseigner le type de matériau des murs 26 de la pièce (béton, vitre, rideau, parquet, moquette, etc.). Ces informations sont transmises à l'unité de traitement 7 via un canal de communication quelconque entre le smartphone 21 et le boîtier décodeur 1 (par exemple en Wi-Fi, Bluetooth, etc.).The user uses, for example, an application loaded into his smartphone 21 to enter the type of material of the walls 26 of the room (concrete, glass, curtain, parquet, carpet, etc.). This information is transmitted to the processing unit 7 via any communication channel between the smartphone 21 and the decoder box 1 (for example via Wi-Fi, Bluetooth, etc.).

L'unité de traitement 7 utilise une table 27 stockée dans l'une des mémoires 9 (non volatile). La table 27 associe à chaque matériau un coefficient d'absorption pour chaque fréquence.The processing unit 7 uses a table 27 stored in one of the memories 9 (non-volatile). Table 27 associates an absorption coefficient for each frequency with each material.

Alternativement, il est possible de prévoir plusieurs catégories générales, qui chacune regroupe une pluralité de matériaux. Puis, pour un mur 26 donné, soit l'utilisateur 20 renseigne le matériau et l'unité de traitement 7 en déduit une catégorie générale à laquelle appartient ledit matériau, soit l'utilisateur 20 renseigne directement la catégorie générale à laquelle appartient ledit matériau.Alternatively, it is possible to provide several general categories, each of which groups together a plurality of materials. Then, for a given wall 26, either the user 20 enters the material and the processing unit 7 deduces a general category to which said material belongs, or the user 20 directly informs the general category to which said material belongs.

Un exemple de table 27 est donné ci-dessous. Cette table 27 associe, pour chaque catégorie générale de matériaux et pour plusieurs fréquences, un coefficient d'absorption associé à ladite catégorie générale et à ladite fréquence. coefficient d'absorption acoustique du matériau Catégorie générale de matériaux 125Hz 250Hz 500Hz 1kHz 2kHz 4kHz Vitres - sol/mur non traités 0,10 0,10 0,10 0,10 0,10 0,10 Tentures - rideaux - moquette 0,10 0,20 0,40 0,50 0, 65 0,60 Traitement absorbant 0,20 0,55 0, 60 0, 70 0,80 0, 90 An example of table 27 is given below. This table 27 associates, for each general category of materials and for several frequencies, an absorption coefficient associated with said general category and with said frequency. sound absorption coefficient of the material General category of materials 125Hz 250Hz 500Hz 1kHz 2kHz 4kHz Windows - untreated floor/wall 0.10 0.10 0.10 0.10 0.10 0.10 Hangings - curtains - carpet 0.10 0.20 0.40 0.50 0.65 0.60 Absorbent treatment 0.20 0.55 0.60 0.70 0.80 0.90

On a donc ici trois catégories générales de matériaux : vitres - sol/mur non traités ; tentures - rideaux - moquette ; traitement absorbant.We therefore have three general categories of materials here: glass - untreated floor/wall; hangings - curtains - carpet; absorbent treatment.

L'unité de traitement 7 réalise alors une simulation, en utilisant la carte et les caractéristiques acoustiques des murs 26, pour simuler une propagation dans la pièce de sons émis par les sources sonoresThe processing unit 7 then carries out a simulation, using the map and the acoustic characteristics of the walls 26, to simulate propagation in the room of sounds emitted by the sound sources

La simulation utilise une technique de lancer de rayons (ou ray tracing). Cette technique permet de définir l'impact acoustique de la pièce sur la propagation acoustique des ondes sonores générés par les sources sonores : boîtier décodeur 1 et enceintes 3a, 3b.The simulation uses a ray tracing technique. This technique makes it possible to define the acoustic impact of the room on the acoustic propagation of sound waves generated by the sound sources: decoder box 1 and speakers 3a, 3b.

On décrit tout d'abord le principe de la technique de lancer de rayons. Cette technique consiste à tirer des rayons à partir d'une source sonore vers le point de mesure en prenant en compte les chemins avec les réflexions sur les murs, et en faisant la somme des contributions de chaque rayon.We first describe the principle of the ray tracing technique. This technique consists of shooting rays from a sound source towards the measurement point by taking into account the paths with reflections from the walls, and summing the contributions of each ray.

Cette simulation reproduit donc, pour chaque position de référence d'une pluralité de positions de référence, le parcours des rayons sonores entre chaque source sonore et ladite position de référence, en tenant compte des réflexions sur les murs et le plafond.This simulation therefore reproduces, for each reference position of a plurality of reference positions, the path of the sound rays between each sound source and said reference position, taking into account the reflections on the walls and the ceiling.

La simulation tient compte de chaque réflexion sur les murs 26 en évaluant le niveau Nr de l'onde sonore réfléchie, en fonction du niveau Ni de l'onde sonore incidente et du coefficient d'absorption du mur 26 contre lequel l'onde est réfléchie, de la manière suivante : Nr = Ni × α

Figure imgb0001
où α est le coefficient d'absorption du matériau du mur (compris entre 0 et 1).The simulation takes into account each reflection on the walls 26 by evaluating the level Nr of the reflected sound wave, as a function of the level Ni of the incident sound wave and the absorption coefficient of the wall 26 against which the wave is reflected , as follows : No = Neither × α
Figure imgb0001
where α is the absorption coefficient of the wall material (between 0 and 1).

Par exemple, dans le cas de la moquette, à 1 kHz, on a α = 0,5. Le niveau de l'onde sonore réfléchie est alors égal au niveau de l'onde sonore incidente divisé par 2 (soit une atténuation de 6 dB).For example, in the case of carpet, at 1 kHz, we have α = 0.5. The level of the reflected sound wave is then equal to the level of the incident sound wave divided by 2 (i.e. an attenuation of 6 dB).

On voit sur la figure 3 un rayon sonore direct (sans réflexion sur les murs 26) entre une source sonore 29 et une position de référence 30.We see on the Figure 3 a direct sound ray (without reflection on the walls 26) between a sound source 29 and a reference position 30.

On voit sur la figure 4 les rayons sonores avec une réflexion sur les murs 26.We see on the figure 4 sound rays with reflection on the walls 26.

On voit sur la figure 5 les rayons sonores avec deux réflexions sur les murs 26.We see on the Figure 5 sound rays with two reflections on the walls 26.

On voit sur la figure 6 les rayons sonores avec trois réflexions sur les murs 26.We see on the Figure 6 sound rays with three reflections on the walls 26.

Ces simulations sont réalisées pour chaque source sonore de la pièce, pour chaque positon de référence, et pour une pluralité de fréquences.These simulations are carried out for each sound source in the room, for each reference position, and for a plurality of frequencies.

Le calcul du lancer de rayons équivaut au positionnement d'un microphone d'ambiance via sa mesure physique. Toutes les données nécessaires sont calculées, comme pour une calibration du microphone. Toutes les données d'atténuation du point d'écoute par rapport aux différentes enceintes sont ainsi calculées. Les données pour le traitement du son immersif sont calculées pour compenser les distances et les réflexions.Calculating ray tracing is equivalent to positioning a room microphone via its physical measurement. All necessary data is calculated, as for a microphone calibration. All the attenuation data of the listening point in relation to the different speakers are thus calculated. Data for immersive sound processing is calculated to compensate for distances and reflections.

A partir des résultats de la simulation, l'unité de traitement 7 produit, pour chaque position de référence de la pluralité de positions de référence, et pour chaque source sonore, des paramètres audio de référence permettant d'optimiser une restitution audio de ladite source sonore dans ladite position de référence.From the results of the simulation, the processing unit 7 produces, for each reference position of the plurality of reference positions, and for each sound source, reference audio parameters making it possible to optimize audio reproduction of said source. sound in said reference position.

Les paramètres audio de référence comprennent, pour chaque position de référence et pour chaque source sonore, des valeurs de gain et de déphasage pour différentes fréquences, associées à ladite source sonore.The reference audio parameters include, for each reference position and for each sound source, gain and phase shift values for different frequencies, associated with said sound source.

Les positions de référence de la pluralité de positions de référence sont ici des noeuds d'un maillage ayant une maille de longueur prédéfinie.The reference positions of the plurality of reference positions are here nodes of a mesh having a mesh of predefined length.

En référence à la figure 7, une carte 31 a été réalisée par le boîtier décodeur 1. Le boîtier décodeur 1 et les enceintes 3a, 3b (enceintes omnidirectionnelles) sont situés dans une salle de séjour parallélépipédique de 6 m x 10 m.In reference to the Figure 7 , a card 31 was produced by the decoder box 1. The decoder box 1 and the speakers 3a, 3b (omnidirectional speakers) are located in a parallelepiped living room of 6 mx 10 m.

On voit donc sur cette carte 31 la position des sources sonores 1, 3a, 3b et des murs 26.We therefore see on this map 31 the position of the sound sources 1, 3a, 3b and the walls 26.

Le maillage 32 est défini sur cette carte 31. La maille est par exemple égale à 1m.The mesh 32 is defined on this map 31. The mesh is for example equal to 1m.

On voit aussi sur la figure 7 un auditeur virtuel 33 qui, bien sûr, ne figure pas en réalité sur la carte 31. L'auditeur virtuel est positionné sur un des noeuds 34 du maillage 32.We also see on the Figure 7 a virtual listener 33 which, of course, does not actually appear on the map 31. The virtual listener is positioned on one of the nodes 34 of the mesh 32.

On s'intéresse à la simulation des sons émis par l'enceinte 3a.We are interested in simulating the sounds emitted by speaker 3a.

L'enceinte 3a est positionnée sur un des noeuds du maillage.Enclosure 3a is positioned on one of the nodes of the mesh.

Les positions de références correspondent aux noeuds du maillage.The reference positions correspond to the mesh nodes.

Le retard r du signal sonore émis par l'enceinte 3a est directement lié à la distance entre l'enceinte 3a et l'auditeur virtuel 33 : r = X auditeur X enceinte 2 + Y auditeur Y enceinte 2 1 / 2 / c ,

Figure imgb0002
où (Xauditeur ; Yauditeur) et Xenceinte ; Yenceinte) sont les coordonnées de l'auditeur virtuel 33 et de l'enceinte 3a dans un repère défini par les axes OX et OY et associé à la carte, et où c est la célérité du son.The delay r of the sound signal emitted by the speaker 3a is directly linked to the distance between the speaker 3a and the virtual listener 33: r = X listener X pregnant 2 + Y listener Y pregnant 2 1 / 2 / vs ,
Figure imgb0002
where (X listener ; Y listener ) and X speaker ; Y speaker ) are the coordinates of the virtual listener 33 and the speaker 3a in a reference frame defined by the axes OX and OY and associated with the card, and where c is the speed of the sound.

On considère par exemple que les deux murs latéraux les plus long (N et S) ne sont pas traités acoustiquement, de sorte qu'ils présentent un coefficient d'absorption moyen α égal à 0,1 à 1 kHz (voir table plus haut).For example, we consider that the two longest side walls (N and S) are not acoustically treated, so that they have an average absorption coefficient α equal to 0.1 to 1 kHz (see table above) .

On considère par exemple que les deux autres murs (O et E) sont revêtus de tentures, de sorte qu'ils présentent un coefficient d'absorption moyen α égal à 0,5 à 1 kHz (voir table plus haut).We consider, for example, that the other two walls (O and E) are covered with curtains, so that they have an average absorption coefficient α equal to 0.5 to 1 kHz (see table above).

Les résultats de la simulation par lancer de rayons, visibles sur la figure 8, donnent, pour une fréquence donnée, une amplification du niveau sonore au niveau de l'auditeur virtuel 33 de +10,1 dB par rapport au signal en champ libre.The results of the ray tracing simulation, visible on the figure 8 , give, for a given frequency, an amplification of the sound level at the level of the virtual listener 33 of +10.1 dB compared to the signal in the free field.

Cette amplification doit être compensée, à la fréquence donnée (ici 1 kHz), par une valeur de gain de -10,1 dB. Cette valeur de gain est l'un des paramètres audio de référence associés à la fréquence donnée et à la position de référence dans la pièce correspondant à la position de l'auditeur virtuel 33.This amplification must be compensated, at the given frequency (here 1 kHz), by a gain value of -10.1 dB. This gain value is one of the reference audio parameters associated with the given frequency and the reference position in the room corresponding to the position of the virtual listener 33.

Ce calcul est donc réalisé pour chacun des noeuds 34 du maillage, fréquence par fréquence.This calculation is therefore carried out for each of the nodes 34 of the mesh, frequency by frequency.

Afin d'améliorer la précision, ce calcul peut être affiné en intégrant la directivité de l'enceinte de la source sonore selon les fréquences. Les résultats de cette nouvelle simulation sont visibles sur la figure 9.In order to improve accuracy, this calculation can be refined by integrating the directivity of the sound source speaker according to the frequencies. The results of this new simulation are visible on the Figure 9 .

Dans l'exemple précédent, si l'on supprime les rayons au-delà de +/- 60° de l'axe de l'enceinte 3a, l'effet de la salle au niveau de l'auditeur virtuel se réduirait à +6,9 dB (au lieu des +10,1 dB sans prendre en compte la directivité) .In the previous example, if we remove the rays beyond +/- 60° from the axis of speaker 3a, the effect of the room at the level of the virtual listener would be reduced to +6 .9 dB (instead of +10.1 dB without taking directivity into account).

La simulation permet d'obtenir, pour chaque position de référence, c'est-à-dire pour chaque noeud 34 de la grille 32, et pour chaque source sonore, une fonction de transfert définissant un gain (fonction de la fréquence) et un déphasage (fonction de la fréquence).The simulation makes it possible to obtain, for each reference position, that is to say for each node 34 of the grid 32, and for each sound source, a transfer function defining a gain (function of the frequency) and a phase shift (function of frequency).

On a donc, pour chaque position de référence (x, y) :

  • une fonction de transfert F1 (x, y) pour la première source sonore ;
  • une fonction de transfert F2 (x, y) pour la source sonore numéro 2 ;
  • Etc.
We therefore have, for each reference position (x, y):
  • a transfer function F1 (x, y) for the first sound source;
  • a transfer function F2 (x, y) for sound source number 2;
  • Etc.

On note qu'un haut-parleur est considéré comme formant une source sonore. Par conséquent, les enceintes multivoies comprenant une pluralité de haut-parleurs sont considérées comme autant de sources sonores positionnées au même endroit (et éventuellement avec une même orientation).Note that a loudspeaker is considered to form a sound source. Consequently, multi-way speakers comprising a plurality of speakers are considered as so many sound sources positioned in the same place (and possibly with the same orientation).

Les paramètres audio de référence sont enregistrés dans l'une des mémoires 9 (non-volatile) de l'unité de traitement 7.The reference audio parameters are recorded in one of the memories 9 (non-volatile) of the processing unit 7.

Une fois que la phase préliminaire a été réalisée, la phase opérationnelle peut débuter.Once the preliminary phase has been completed, the operational phase can begin.

Elle dure jusqu'à une éventuelle phase préliminaire suivante, qui est mise en oeuvre uniquement en cas de déplacement significatif d'une ou de plusieurs sources sonores, ou bien en cas de changement significatif d'un matériau d'un mur de la pièceIt lasts until a possible next preliminary phase, which is implemented only in the event of a significant movement of one or more sources sound, or in the event of a significant change in the material of a wall in the room

Au cours de la phase opérationnelle, l'unité de traitement 7 du boîtier décodeur 1 détermine en temps réel la position courante de l'utilisateur 20 dans la pièce lorsque celui-ci écoute un signal audio restitué par le boîtier décodeur 1 et les enceintes 3a, 3b.During the operational phase, the processing unit 7 of the decoder box 1 determines in real time the current position of the user 20 in the room when he listens to an audio signal reproduced by the decoder box 1 and the speakers 3a , 3b.

La détermination de la position courante de l'utilisateur 20 est réalisée par une technique de géolocalisation UWB réalisée en utilisant le premier module UWB 10 et le deuxième module UWB 22.The determination of the current position of the user 20 is carried out by a UWB geolocation technique carried out using the first UWB module 10 and the second UWB module 22.

L'unité de traitement 7 fait alors restituer le signal audio par les sources sonores en appliquant des paramètres audio courants obtenus à partir des paramètres audio de référence et qui dépendent de la position courante.The processing unit 7 then restores the audio signal by the sound sources by applying current audio parameters obtained from the reference audio parameters and which depend on the current position.

Dans un premier mode de réalisation, les paramètres audio courants qui sont appliqués sont les paramètres audio de référence d'un noeud 34 le plus proche de la position courante de l'utilisateur 20.In a first embodiment, the current audio parameters which are applied are the reference audio parameters of a node 34 closest to the current position of the user 20.

Dans un deuxième mode de réalisation, les paramètres audio courants qui sont appliqués sont obtenus en moyennant des paramètres audio de référence de plusieurs noeuds 34 les plus proches de la position courante de l'utilisateur 20. Le moyennage permet d'éviter des transitions trop brutales lorsque l'utilisateur 20 se déplace.In a second embodiment, the current audio parameters which are applied are obtained by averaging reference audio parameters of several nodes 34 closest to the current position of the user 20. Averaging makes it possible to avoid too abrupt transitions when the user 20 moves.

En référence à la figure 10, l'unité de traitement 7 du boîtier décodeur 1 transmet en temps réel les paramètres audio courants (F1 (x, y), F2 (x, y), etc.), associés à la position courante de l'utilisateur 20, au module audio 6 du boîtier décodeur 1 et au module audio 35 de chaque enceinte 3a, 3b.In reference to the Figure 10 , the processing unit 7 of the decoder box 1 transmits in real time the current audio parameters (F1 (x, y), F2 (x, y), etc.), associated with the current position of the user 20, at audio module 6 of the decoder box 1 and to the audio module 35 of each speaker 3a, 3b.

Le module audio 6, 35 de chaque source sonore acquiert les paramètres audio courants qui sont attribués à ladite source sonore, réalise des traitements pour appliquer lesdits paramètres audio courants, et restitue le signal audio. L'unité de traitement 7 pilote donc les sources sonores pour qu'elles restituent le signal audio en appliquant les paramètres audio courants.The audio module 6, 35 of each sound source acquires the current audio parameters which are assigned to said sound source, carries out processing to apply said current audio parameters, and restores the audio signal. The processing unit 7 therefore controls the sound sources so that they reproduce the audio signal by applying the current audio parameters.

Ainsi les retards acoustiques et phases sont pris en compte en tenant compte de la nature acoustique de la pièce.Thus the acoustic and phase delays are taken into account taking into account the acoustic nature of the room.

Bien entendu, l'invention n'est pas limitée aux modes de réalisation décrits mais englobe toute variante entrant dans le champ de l'invention tel que défini par les revendications.Of course, the invention is not limited to the embodiments described but encompasses any variant falling within the scope of the invention as defined by the claims.

On a décrit des architectures pour le boîtier décodeur et pour le smartphone, qui ne sont bien sûr pas limitatives. Les modules UWB pourraient comprendre des composants différents de ceux décrits ici. Dans le boîtier décodeur, le microcontrôleur et/ou le composant de communication UWB du premier module UWB pourraient par exemple être intégrés dans l'unité de traitement.We have described architectures for the decoder box and for the smartphone, which are of course not limiting. UWB modules could include different components than those described here. In the decoder box, the microcontroller and/or the UWB communication component of the first UWB module could for example be integrated into the processing unit.

La détermination de la position des murs, utilisée pour produire la carte de la pièce, pourrait être réalisée de manière différente. Par exemple, si le smartphone de l'utilisateur (ou tout autre équipement mobile) comprend un capteur LiDAR (pour Light Détection And Ranging, que l'on peut traduire par détection et estimation de la distance par la lumière), il est possible de l'utiliser pour réaliser une cartographie 3D de la pièce plus précise et plus rapide.Determining the position of the walls, used to produce the room map, could be done in a different way. For example, if the user's smartphone (or any other mobile equipment) includes a LiDAR sensor (for Light Detection And Ranging, which can be translated as detection and estimation of the distance by light), it is possible to use it to produce more precise and faster 3D mapping of the room.

La technologie radar UWB peut également être utilisée pour réaliser la carte de la pièce. Le boîtier décodeur peut ainsi intégrer un radar UWB. Le radar UWB positionne en coordonnées polaires des échos dans la pièce. Les échos sont ensuite analysés pour constituer un modèle de la pièce et pour définir la position des murs, les angles entre ceux-ci, etc.UWB radar technology can also be used to map the room. The decoder box can thus integrate a UWB radar. The UWB radar positions echoes in the room in polar coordinates. The echoes are then analyzed to form a model of the room and to define the position of the walls, the angles between them, etc.

Également, la méthode radar permet aussi d'analyser le mouvement d'une personne, qui peut comme précédemment parcourir la pièce, en synchronisation avec son smartphone (ou un autre équipement mobile) et l'application spécifique afin de réaliser la partie calibration de la pièce (parcours du périmètre de la pièce, position des sources sonores). Via l'application du smartphone les données de réflexions des surfaces pourront être également renseignées, pour revenir à la calibration de la pièce décrite plus haut.Also, the radar method also makes it possible to analyze the movement of a person, who can, as previously, move through the room, in synchronization with their smartphone (or other mobile equipment) and the specific application in order to carry out the calibration part of the room (route around the perimeter of the room, position of sound sources). Via the smartphone application, surface reflection data can also be entered, to return to the calibration of the room described above.

Dans la phase opérationnelle, la position courante de l'utilisateur pourrait aussi être déterminée par le boîtier décodeur en utilisant la technologie radar UWB.In the operational phase, the user's current position could also be determined by the set-top box using UWB radar technology.

De même, la détermination de la position des sources sonores pourrait être réalisée de manière différente. Une enceinte pourrait par exemple être munie d'un tag UWB (ou étiquette UWB). Le boîtier décodeur peut alors déterminer la position de ladite source sonore en utilisant une technique de géolocalisation UWB réalisée en utilisant le premier module UWB et le tag UWB.Likewise, determining the position of sound sources could be carried out differently. A speaker could, for example, be equipped with a UWB tag (or UWB label). The decoder box can then determine the position of said sound source using a UWB geolocation technique carried out using the first UWB module and the UWB tag .

On a décrit que l'invention est mise en oeuvre dans un équipement maître qui est le boîtier décodeur.It has been described that the invention is implemented in master equipment which is the decoder box.

L'invention pourrait être mise en oeuvre dans un autre équipement maître, par exemple dans une enceinte connectée, ou bien dans le smartphone de l'utilisateur.The invention could be implemented in other master equipment, for example in a connected speaker, or in the user's smartphone.

L'invention peut parfaitement être mise en oeuvre dans un seul équipement maître, comme cela est d'ailleurs décrit ici, notamment lorsque l'unité de traitement intègre un composant de traitement suffisamment puissant pour réaliser la simulation (type DSP).The invention can perfectly be implemented in a single master piece of equipment, as is also described here, in particular when the processing unit integrates a processing component powerful enough to carry out the simulation (DSP type).

Il est cependant possible de mettre en oeuvre l'invention dans plusieurs équipements maîtres. Ainsi, par exemple, le boîtier décodeur pourrait réaliser l'étape de cartographie (seul ou en coopérant avec d'autres équipements, tels qu'un smartphone, comme cela est décrit ici), et transmettre la carte ou ses éléments constitutifs à un serveur du cloud sur lequel est réalisée la simulation. Le boîtier décodeur récupère alors les paramètres audio de référence et pilote la phase opérationnelle.It is however possible to implement the invention in several master devices. Thus, for example, the set-top box could carry out the mapping step (alone or in cooperation with other equipment, such as a smartphone, as described here), and transmit the map or its constituent elements to a server of the cloud on which the simulation is carried out. The decoder box then recovers the reference audio parameters and controls the operational phase.

Claims (18)

Procédé de restitution audio, mis en oeuvre par un ou des équipements maîtres (1), et comportant une phase préliminaire comprenant les étapes de : - réaliser une carte (31) d'une pièce dans laquelle se trouvent une ou des sources sonores (1, 3a, 3b), qui comprend une position de chaque source sonore et une position de murs (26) de la pièce ; - acquérir des caractéristiques acoustiques des murs ; - réaliser une simulation, en utilisant la carte et les caractéristiques acoustiques des murs, pour simuler une propagation dans la pièce de sons émis par les sources sonores ; - à partir de résultats de la simulation, produire, pour chaque position de référence (34) d'une pluralité de positions de référence définies dans la pièce, et pour chaque source sonore, des paramètres audio de référence permettant d'optimiser une restitution audio de ladite source sonore dans ladite position de référence ; le procédé de restitution audio comportant en outre une phase opérationnelle comprenant les étapes, réalisées en temps réel, de : - déterminer une position courante d'un utilisateur (20) dans la pièce ; - faire restituer un signal audio par les sources sonores en appliquant des paramètres audio courants obtenus à partir des paramètres audio de référence et qui dépendent de la position courante. Audio restitution method, implemented by one or more pieces of master equipment (1), and comprising a preliminary phase comprising the steps of: - produce a map (31) of a room in which there are one or more sound sources (1, 3a, 3b), which includes a position of each sound source and a position of the walls (26) of the room; - acquire acoustic characteristics of the walls; - carry out a simulation, using the map and the acoustic characteristics of the walls, to simulate propagation in the room of sounds emitted by sound sources; - from simulation results, produce, for each reference position (34) of a plurality of reference positions defined in the room, and for each sound source, reference audio parameters making it possible to optimize audio reproduction of said sound source in said reference position; the audio restitution process further comprising an operational phase comprising the steps, carried out in real time, of: - determine a current position of a user (20) in the room; - restore an audio signal by the sound sources by applying current audio parameters obtained from the reference audio parameters and which depend on the current position. Procédé de restitution audio selon la revendication 1, dans lequel la simulation utilise une technique de lancer de rayons.Audio restitution method according to claim 1, wherein the simulation uses a ray tracing technique. Procédé de restitution audio selon l'une des revendications précédentes, dans lequel les caractéristiques acoustiques des murs (26) comprennent, pour chaque mur, des valeurs pour différentes fréquences d'un coefficient d'absorption d'un matériau du mur ou d'une catégorie de matériaux incluant ledit matériau.Audio reproduction method according to one of the preceding claims, in which the acoustic characteristics of the walls (26) comprise, for each wall, values for different frequencies of an absorption coefficient of a material of the wall or of a category of materials including said material. Procédé de restitution audio selon l'une des revendications précédentes, dans lequel les paramètres audio de référence comprennent, pour chaque position de référence et pour chaque source sonore (1, 3a, 3b), des valeurs de gain et de déphasage pour différentes fréquences, associées à ladite la source sonore.Audio restitution method according to one of the preceding claims, in which the reference audio parameters comprise, for each reference position and for each sound source (1, 3a, 3b), gain and phase shift values for different frequencies, associated with said sound source. Procédé de restitution audio selon l'une des revendications précédentes, dans lequel les positions de référence de la pluralité de positions de référence sont des noeuds (34) d'un maillage (32) ayant une maille de longueur prédéfinie.Audio reproduction method according to one of the preceding claims, in which the reference positions of the plurality of reference positions are nodes (34) of a mesh (32) having a mesh of predefined length. Procédé de restitution audio selon la revendication 5, dans lequel, au cours de la phase opérationnelle, les paramètres audio courants qui sont appliqués sont les paramètres audio de référence d'un noeud (34) le plus proche de la position courante.Audio restitution method according to claim 5, wherein, during the operational phase, the current audio parameters which are applied are the reference audio parameters of a node (34) closest to the current position. Procédé de restitution audio selon la revendication 5, dans lequel, au cours de la phase opérationnelle, les paramètres audio courants qui sont appliqués sont obtenus en moyennant des paramètres audio de référence de plusieurs noeuds (34) les plus proches de la position courante.Audio restitution method according to claim 5, wherein, during the operational phase, the current audio parameters which are applied are obtained by means of reference audio parameters of several nodes (34) closest to the current position. Procédé de restitution audio selon l'une des revendications précédentes, dans lequel au moins l'un des équipements maîtres comprend un premier module UWB (10), et dans lequel la réalisation de la carte (31) et/ou la détection de la position courante de l'utilisateur sont mises en oeuvre en utilisant le premier module UWB (10).Audio reproduction method according to one of the preceding claims, in which at least one of the master equipment comprises a first UWB module (10), and in which the production of the card (31) and/or the detection of the position current user are set implemented using the first UWB module (10). Procédé de restitution audio selon l'une des revendications précédentes, dans lequel la phase préliminaire comprend les étapes, pour déterminer la position des murs (26), de : - émettre un premier message à destination de l'utilisateur pour demander à celui-ci d'effectuer un parcours longeant les murs (26) au plus près de ceux-ci ; - déterminer la position en temps réel de l'utilisateur lorsque celui-ci effectue ledit parcours, et déterminer la position des murs (26) à partir de cette position en temps réel. Audio restitution method according to one of the preceding claims, in which the preliminary phase comprises the steps, to determine the position of the walls (26), of: - send a first message to the user to ask the user to take a route along the walls (26) as close as possible to them; - determine the real-time position of the user when he performs said route, and determine the position of the walls (26) from this real-time position. Procédé de restitution audio selon les revendications 8 et 9, dans lequel l'utilisateur (20) est muni lorsqu'il effectue ledit parcours d'un équipement mobile (21) comportant un deuxième module UWB (22), la détermination de la position en temps réel de l'utilisateur étant réalisée par une technique de géolocalisation UWB en utilisant le premier module UWB (10) et le deuxième module UWB (22).Audio restitution method according to claims 8 and 9, in which the user (20) is provided when carrying out said journey with mobile equipment (21) comprising a second UWB module (22), the determination of the position in real time of the user being carried out by a UWB geolocation technique using the first UWB module (10) and the second UWB module (22). Procédé de restitution audio selon la revendication 8, dans lequel, au cours de la phase opérationnelle, l'utilisateur (20) est muni d'un équipement mobile (21) comportant un deuxième module UWB (22), la détermination de la position courante de l'utilisateur étant réalisée par une technique de géolocalisation UWB réalisée en utilisant le premier module UWB (10) et le deuxième module UWB (22).Audio reproduction method according to claim 8, in which, during the operational phase, the user (20) is provided with mobile equipment (21) comprising a second UWB module (22), determining the current position of the user being carried out by a UWB geolocation technique carried out using the first UWB module (10) and the second UWB module (22). Procédé de restitution audio selon la revendication 8, dans lequel le premier module UWB est agencé pour mettre en oeuvre une technologie de radar UWB, la détermination de la position des murs (26) de la pièce étant réalisée par l'équipement maître en utilisant ladite technologie de radar UWB.Audio restitution method according to claim 8, in which the first UWB module is arranged to implement UWB radar technology, the determination of the position of the walls (26) of the room being carried out by the master equipment using said UWB radar technology. Procédé de restitution audio selon la revendication 8, dans lequel l'utilisateur (20), au cours de la phase préliminaire, est muni d'un équipement mobile (21) comportant un deuxième module UWB (22), la phase préliminaire comprenant l'étape, pour au moins une source sonore (3a, 3b), d'émettre un deuxième message à destination de l'utilisateur pour demander à celui-ci de positionner l'équipement mobile (21) à proximité immédiate de la source sonore, la position de ladite source sonore étant alors assimilée à la position de l'équipement mobile (21), qui est déterminée par une technique de géolocalisation UWB en utilisant le premier module UWB (10) et le deuxième module UWB (22).Audio reproduction method according to claim 8, in which the user (20), during the preliminary phase, is provided with mobile equipment (21) comprising a second UWB module (22), the preliminary phase comprising the step, for at least one sound source (3a, 3b), of transmitting a second message to the user to ask the latter to position the mobile equipment (21) in the immediate vicinity of the sound source, the position of said sound source then being assimilated to the position of the mobile equipment (21), which is determined by a UWB geolocation technique using the first UWB module (10) and the second UWB module (22). Procédé de restitution audio selon la revendication 8, dans lequel au moins une source sonore comporte un tag UWB, l'équipement maître étant agencé pour déterminer la position de ladite source sonore en utilisant une technique de géolocalisation UWB réalisée en utilisant le premier module UWB (10) et le tag UWB.Audio restitution method according to claim 8, in which at least one sound source comprises a UWB tag , the master equipment being arranged to determine the position of said sound source using a UWB geolocation technique carried out using the first UWB module ( 10) and the UWB tag . Equipement maître (1) comportant un premier module UWB (10) agencé pour réaliser une géolocalisation, et une unité de traitement (7) agencée pour mettre en oeuvre le procédé de restitution audio selon l'une des revendications précédentes.Master equipment (1) comprising a first UWB module (10) arranged to carry out geolocation, and a processing unit (7) arranged to implement the audio restitution method according to one of the preceding claims. Equipement maître selon la revendication 15, l'équipement maître étant un boîtier décodeur (1).Master equipment according to claim 15, the master equipment being a decoder box (1). Programme d'ordinateur comprenant des instructions qui conduisent l'unité de traitement (7) de l'équipement maître (1) selon l'une des revendications 15 ou 16 à exécuter les étapes du procédé de restitution audio selon l'une des revendications 1 à 14.Computer program comprising instructions which cause the processing unit (7) of the master equipment (1) according to one of claims 15 or 16 to execute the steps of the audio restitution method according to one of claims 1 at 14. Support d'enregistrement lisible par ordinateur, sur lequel est enregistré le programme d'ordinateur selon la revendication 17.Computer-readable recording medium, on in which the computer program according to claim 17 is recorded.
EP23215807.1A 2022-12-13 2023-12-12 Real-time optimized audio rendering Pending EP4386338A1 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR2213266A FR3143171A1 (en) 2022-12-13 2022-12-13 Optimized audio reproduction in real time

Publications (1)

Publication Number Publication Date
EP4386338A1 true EP4386338A1 (en) 2024-06-19

Family

ID=86604119

Family Applications (1)

Application Number Title Priority Date Filing Date
EP23215807.1A Pending EP4386338A1 (en) 2022-12-13 2023-12-12 Real-time optimized audio rendering

Country Status (3)

Country Link
US (1) US20240196154A1 (en)
EP (1) EP4386338A1 (en)
FR (1) FR3143171A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3840422A1 (en) * 2019-12-17 2021-06-23 Sagemcom Broadband Sas Audio balancing method using uwb geolocation
WO2022231338A1 (en) * 2021-04-28 2022-11-03 Samsung Electronics Co., Ltd. A portable receiving device of calibrating device configurations using room geometry and a system including the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3840422A1 (en) * 2019-12-17 2021-06-23 Sagemcom Broadband Sas Audio balancing method using uwb geolocation
WO2022231338A1 (en) * 2021-04-28 2022-11-03 Samsung Electronics Co., Ltd. A portable receiving device of calibrating device configurations using room geometry and a system including the same

Also Published As

Publication number Publication date
FR3143171A1 (en) 2024-06-14
US20240196154A1 (en) 2024-06-13

Similar Documents

Publication Publication Date Title
US9602940B2 (en) Audio playback system monitoring
JP5637661B2 (en) Method for recording and playing back sound sources with time-varying directional characteristics
EP3262853B1 (en) Computer program and method of determining a personalized head-related transfer function and interaural time difference function
CN102893175B (en) Distance estimation using sound signals
CH702399A2 (en) Apparatus and method for capturing and processing voice.
CN103229160A (en) Method and system for enhancing sound
US20130083936A1 (en) Processing Audio Signals
EP1586220B1 (en) Method and device for controlling a reproduction unit using a multi-channel signal
EP0601934A1 (en) Improvements to methods and devices used to protect from external noises a given volume, preferably located inside a room
EP3400599B1 (en) Improved ambisonic encoder for a sound source having a plurality of reflections
EP3840422B1 (en) Audio balancing method using uwb geolocation
WO2001062044A1 (en) Method and device for comparing signals to control transducers and transducer control system
EP2247122A1 (en) Method and apparatus for controlling the reproduction of audio contents by two loudspeakers
EP3025514B1 (en) Sound spatialization with room effect
EP4386338A1 (en) Real-time optimized audio rendering
JP6363429B2 (en) Data structure, data generation apparatus, data generation method, and program
FR3112017A1 (en) Electronic equipment including a distortion simulator
Olive Interaction between loudspeakers and room acoustics influences loudspeaker preferences in multichannel audio reproduction
US20220070604A1 (en) Audio equalization metadata
WO2004112370A1 (en) Echo processing method and device
JP6126053B2 (en) Sound quality evaluation apparatus, sound quality evaluation method, and program
Kim et al. Inexpensive indoor acoustic material estimation for realistic sound propagation
EP4064725A1 (en) Method for dynamic selection of microphones
Lopez et al. Compensating first reflections in non-anechoic head-related transfer function measurements
KR101404411B1 (en) Position-dependent crosstalk cancellation using space partitioning

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: EXAMINATION IS IN PROGRESS

17P Request for examination filed

Effective date: 20231212

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC ME MK MT NL NO PL PT RO RS SE SI SK SM TR