EP1854334B1 - Vorrichtung und verfahren zum erzeugen eines codierten stereo-signals eines audiostücks oder audiodatenstroms - Google Patents

Vorrichtung und verfahren zum erzeugen eines codierten stereo-signals eines audiostücks oder audiodatenstroms Download PDF

Info

Publication number
EP1854334B1
EP1854334B1 EP06707184A EP06707184A EP1854334B1 EP 1854334 B1 EP1854334 B1 EP 1854334B1 EP 06707184 A EP06707184 A EP 06707184A EP 06707184 A EP06707184 A EP 06707184A EP 1854334 B1 EP1854334 B1 EP 1854334B1
Authority
EP
European Patent Office
Prior art keywords
channel
stereo
uncoded
channels
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
EP06707184A
Other languages
English (en)
French (fr)
Other versions
EP1854334A1 (de
Inventor
Jan Plogsties
Harald Mundt
Harald Popp
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority to EP09006142.5A priority Critical patent/EP2094031A3/de
Priority to PL06707184T priority patent/PL1854334T3/pl
Publication of EP1854334A1 publication Critical patent/EP1854334A1/de
Application granted granted Critical
Publication of EP1854334B1 publication Critical patent/EP1854334B1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • H04S3/004For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S5/00Pseudo-stereo systems, e.g. in which additional channel signals are derived from monophonic signals by means of phase shifting, time delay or reverberation 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems

Definitions

  • the present invention relates to multi-channel audio technology, and more particularly to multi-channel audio applications in conjunction with headphone techniques.
  • the two international patent applications WO 99/49574 and WO 99/14983 disclose audio signal processing techniques for driving a pair of oppositely located headphone speakers to provide a user with spatial perception of the audio scene through the two headphones, which is not just a stereo representation but a multi-channel presentation.
  • the listener receives via his or her headphones a spatial perception of an audio piece that is equal to its spatial perception at best, if the user would sit in a playback room, which is equipped for example with a 5.1 audio system.
  • each channel of the multi-channel audio track or multi-channel audio stream, as shown in Fig. 2 is shown, fed to its own filter, after which then the respective filtered belonging together channels are added, as shown below.
  • Fig. 10 shows a playback room 200 in which a so-called 5.1 audio system is arranged.
  • the 5.1 audio system includes a center speaker 201, a front-left speaker 202, a front-right speaker 203, a rear-left speaker 204, and a rear-right speaker 205.
  • a 5.1 audio system has an additional subwoofer 206, which is also referred to as a low-frequency enhancement channel.
  • a listener 207 wearing a headset 208 having a left headphone speaker 209 and a right headphone speaker 210.
  • Fig. 2 Processing means shown is now adapted to each channel 1, 2, 3 of the multi-channel inputs 20 with a filter H iL , the sound channel from the speaker to the left speaker 209 in Fig. 10 describes to filter and to further filter the same channel with a filter H iR representing the sound from one of the five speakers to the right ear 210 to the right speaker 210 of the headphone 208.
  • the filter H iL would represent the channel indicated by a dashed line 212
  • the filter H 1R would represent the channel represented by a dashed line 213.
  • the left earphone speaker 209 receives not only the direct sound, but also early reflections at an edge of the playback room and, of course, late reflections that are expressed in a diffuse reverberation.
  • FIG. 11 Such a filter representation is in Fig. 11 shown.
  • Fig. 11 a schematic example of an impulse response of a filter, for example, the filter H 1L of Fig. 2
  • the direct sound coming through line 212 in FIG Fig. 11 is represented by a peak at the beginning of the filter, whereas early reflections, such as those shown by 214 in FIG Fig. 10 are represented by a central region with a plurality of (discrete) smaller peaks in Fig. 11 be reproduced.
  • the diffuse reverberation is then typically not more resolved to individual peaks, since the sound of the speaker 202 is reflected in principle as often as desired, the energy of course, with each reflection and additional propagation distance continues to decrease, as by the decreasing energy in the rear section, with "diffuse reverberation" in Fig. 11 is indicated, is shown.
  • the filter shown comprises a filter impulse response, which has approximately a course, as shown by the schematic impulse response representation in Fig. 11 is reproduced.
  • each channel is filtered with a corresponding filter for the left ear to then simply add up the signals output from the filters, which are all for the left ear, to obtain the headphone output signal for the left ear L.
  • addition is made by the right ear adder 23 and the right headphone speaker 210 in FIG Fig. 10 in order to obtain the headphone output signal for the right ear by superimposing all the loudspeaker signals filtered with a corresponding filter for the right ear.
  • Headphone systems for generating a multi-channel headphone sounds are therefore complicated, bulky and expensive, due to the high computing power, the high power requirements for the necessary high computing power and high memory requirements for the ratings to be performed with the impulse response and the associated large volume or expensive blocks for the player is.
  • Such applications are therefore tied to home PC sound cards or laptop sound cards or home stereo systems.
  • the ever-expanding market for mobile players remains the multi-channel headphone sound closed because the computational requirements for filtering the multi-channels with z.
  • B. 12 different filters both in terms of processor resources as well as in terms of power consumption of the typically battery-powered devices are not feasible in the price segment. This is about a price segment at the lower (low) end of the scale. Especially this price segment is economically very interesting because of the large quantities.
  • the post-published EP 1 768 451 A1 discloses an apparatus for coding an acoustic signal and an apparatus for decoding an acoustic signal.
  • a coefficient table holds coefficients in the form of a matrix of two rows and n columns, the coefficients simulating head-related transfer characteristics to be used when a signal is to be reproduced.
  • a first signal output unit an N-channel frequency domain signal is converted into a two-channel downmix signal according to the coefficient table.
  • a second signal output unit exists for generating auxiliary information to be used to reconstruct only the channel signals based on a two-channel downmix signal, thereby allowing the downmix signal to be filtered according to a desired transfer function.
  • a decoder reproduces the original multi-channel signal by reproducing the original multi-channel signal space information, which is then used to reconstruct the multi-channel signal.
  • the object of the present invention is to provide an efficient signal processing concept that enables multi-channel headphone reproduction even on simple playback devices.
  • This object is achieved by a device for generating a coded stereo signal according to claim 1 or by a method for generating a coded stereo signal according to claim 10 or a computer program according to claim 11.
  • the present invention is based on the finding that the high-quality and attractive multi-channel headphone sound can be made available to all available playback devices, such as CD players or hardware players, by providing a multi-channel display of an audio track or audio data stream So, for example, a 5.1 representation of an audio piece outside of a hardware player, so z. B. in a high-power computer of a provider of a headphone signal processing.
  • the result of earphone signal processing is not simply played back but fed to a typical audio stereo coder, which then generates a coded stereo signal from the left earphone channel and the right earphone channel.
  • This coded stereo signal can then, like any other coded stereo signal, which has no multi-channel representation, the hardware player or z.
  • the result of the headphone signal processing ie the left and the right headphone signal is not reproduced in a headphone, as in the prior art, but coded and output as coded stereo data.
  • Such an output may be a store, a transfer, or anything like that.
  • Such a file with coded stereo data can then be readily supplied to any player designed for stereo playback without the user having to make any changes to his device.
  • the concept according to the invention of generating a coded stereo signal from the result of the headphone signal processing thus makes it possible for the multichannel presentation, which provides a much better and more lifelike quality for a user, to also be simple and very widely used in the future even more widespread hardware players can be used.
  • a coded multi-channel representation that is, a parameter representation having one or typically two base channels, and further comprising parameter data to on the basis of the base channels and the parameter data to the multi-channels of the multi-channel representation produce.
  • the headphone signal processing according to the invention is performed not in the time domain by convolution of the time signal with the impulse response, but in the frequency domain by multiplication with the filter transfer function.
  • the present invention is used as a multi-channel representation of a BCC representation with one or preferably two base channels.
  • the BCC method works in the frequency domain, the multi-channels are not transformed into the time domain after their synthesis, as is usual with the BCC decoder. Instead, the spectral representation of the multichannels is used in blocks and subjected to the headphone signal processing.
  • the transfer functions of the filters are used, that is, the Fourier transforms the impulse responses to perform a multiplication between the spectral representation of the multi-channels and the filter transfer functions.
  • a block-wise filter processing is preferred in which the impulse responses of the filters in the time domain be separated and be transformed block by block to then perform necessary for such measures weights of the spectra, as described for example in the WO 94/01933 are disclosed.
  • Fig. 1 shows a schematic block diagram of an inventive device for generating a coded stereo signal of an audio track or audio data stream.
  • the stereo signal comprises in uncoded form an uncoded first stereo channel 10a and an uncoded second stereo channel 10b, and is generated from a multi-channel representation of the audio piece or audio data stream, the multi-channel representation comprising information on more than two multi-channels.
  • the multi-channel representation may be in uncoded or encoded form. If the multi-channel representation is present in uncoded form, it includes three or more multi-channels. In a preferred application scenario, the multichannel presentation includes five channels and a subwoofer channel.
  • this encoded form typically includes one or more base channels and parameters for synthesizing the three or more multi-channels from the one or both base channels.
  • a multi-channel decoder 11 is therefore one example of a means for providing the more than two multi-channels from the multi-channel representation.
  • the multichannel presentation already in uncoded form ie z. B. in the form of 5 + 1 PCM channels, the means for providing an input terminal for a device 12 for Performing headphone signal processing to produce the uncoded stereo signal with the uncoded first stereo channel 10a and the uncoded second stereo channel 10b.
  • the headphone signal processing means 12 is arranged to evaluate the multi-channels of the multi-channel display respectively with a first filter function for the first stereo channel and a second filter function for the second stereo channel and weighted multi-channels in each case to obtain the uncoded first stereo channel and the uncoded second stereo channel, as determined by Fig. 2 has been shown.
  • the device 12 for performing the headphone signal processing is followed by a stereo encoder 13, which is configured to encode the first uncoded stereo channel 10a and the second uncoded stereo channel 10b to the encoded stereo signal at an output 14th of the stereo encoder 13.
  • the stereo encoder performs data rate reduction so that a data rate necessary to transmit the encoded stereo signal is less than a data rate necessary to transmit the uncoded stereo signal.
  • inventive concept allows the computationally expensive steps to multi-channel decode and perform headphone signal processing not be performed in the player itself, but are performed externally.
  • the result of the inventive concept is a coded stereo file, which is for example an MP3 file, an AAC file, a HE AAC file or any other stereo file.
  • the multi-channel decoding, the headphone signal processing and the stereo encoding can be performed on different devices, since the output data or input data of the individual blocks are easily portable and standardized generated and stored.
  • Fig. 7 a preferred embodiment of the present invention is shown, in which the multi-channel decoder 11 has a filter bank or an FFT function, such that the multi-channel representation is provided in the frequency domain.
  • the individual multi-channels are generated separately as blocks of spectral values for each channel.
  • the headphone signal processing is then not performed in the time domain by folding the temporal channels with the filter impulse responses, but it is performed a multiplication of the frequency domain representation of the multi-channels with a spectral representation of the filter impulse response.
  • an uncoded stereo signal is reached, which is not present in the time domain, but comprising a left and a right stereo channel, wherein such a stereo channel is given as a result of blocks of spectral values, each block of spectral values represents a short-term spectrum of the stereo channel.
  • the headphone signal processing block 12 is supplied on the input side either with time domain or frequency domain data.
  • the uncoded stereo channels in the frequency domain ie again generated as a sequence of blocks of spectral values.
  • a stereo coder which is transformation-based, that processes spectral values, without a frequency / time conversion and a subsequent time between the headphone signal processor 12 and the stereo coder 13 is preferred as the stereo coder 13 Frequency conversion is required.
  • the stereo encoder 13 On the output side, the stereo encoder 13 then outputs a file with the coded stereo signal, which in addition to page information comprises a coded form of spectral values.
  • a continuous frequency domain processing performed without a conversion into the time domain and, if appropriate, again has to be implemented in the frequency domain. If an MP3 coder or an AAC coder is used as the stereo coder, it is preferable to convert the Fourier spectrum at the output of the headphone signal processing block into an MDCT spectrum.
  • phase information which is required exactly for the convolution / evaluation of the channels in the headphone signal processing block is converted into the MDCT representation which does not operate in phase-correct manner, so that for the stereo encoder, in contrast to a normal MP3 encoder or a normal AAC encoder no means for converting time domain in the frequency domain, ie in the MDCT spectrum is needed.
  • Fig. 9 shows a general block diagram for a preferred stereo encoder.
  • the stereo encoder comprises on the input side a joint stereo module 15, which preferably adaptively determines whether a common stereo coding, for example in the form of a middle / side encoding, provides a higher coding gain than a separate processing from left and right channel.
  • the joint stereo module 15 may further be configured to perform intensity stereo coding, wherein intensity stereo coding provides a significant coding gain, especially at higher frequencies, without audible artifacts occurring.
  • the output of the joint stereo module 15 is then further processed using various other redundancy-reducing measures, such as TNS filtering, noise substitution, etc., and then applying the results to a quantizer 16 which quantizes using a psychoacoustic masking threshold of the spectral values.
  • the quantizer step size is chosen such that the noise introduced by the quantization remains below the psychoacoustic marker threshold, so that a data rate reduction is achieved without the distortions introduced by the lossy quantization becoming audible.
  • the quantizer 16 is finally followed by an entropy coder 17, which performs a lossless entropy coding of the quantized spectral values.
  • the encoded stereo signal is then present, which comprises side information necessary for decoding in addition to the entropy-coded spectral values.
  • Fig. 3 shows a joint stereo device 60.
  • This device may be a device implementing, for example, the intensity stereo (IS) technique or the binaural cue coding technique (BCC).
  • IS intensity stereo
  • BCC binaural cue coding technique
  • Such a device usually receives as input at least two Channels CH1, CH2, .... CHn, and outputs a single carrier channel and multi-channel parametric information.
  • the parametric data is defined so that an approximation of an original channel (CH1, CH2, ..., CHn) can be calculated in a decoder.
  • the carrier channel will include subband samples, spectral coefficients, time domain samples, etc. that provide a relatively fine representation of the underlying signal, while the parametric data does not include such samples or spectral coefficients, but control parameters for controlling a particular reconstruction algorithm, such as multiplying by weighting. by time shifting, by frequency shifting, etc.
  • the parametric multi-channel information therefore comprises a relatively rough representation of the signal or the associated channel.
  • the amount of data needed by a carrier channel is about 60 to 70 kbps, while the amount of data required by one channel parametric page information is in the range of 1.5 to 2.5 kbps.
  • the above figures apply to compressed data.
  • a non-compressed CD channel requires data rates on the order of about ten times.
  • An example of parametric data is the known scale factors, intensity stereo information, or BCC parameters, as set forth below.
  • the reconstructed signals differ in their amplitude, but they are identical in terms of their phase information.
  • the energy-time envelopes of both original audio channels are maintained by the selective scaling operation, which typically operates in a frequency-selective manner. This corresponds to the human perception of sound at high frequencies, where the dominant spatial information is determined by the energy envelopes.
  • the transmitted signal i. H. the carrier channel is generated from the sum signal of the left channel and the right channel instead of the rotation of both components.
  • this processing i. H. generating intensity-stereo parameters to perform the scaling operations in a frequency-selective manner, i. H. independent for each scale factor band, d. H. for each encoder frequency partition.
  • both channels are combined to form a combined or "carrier" channel and, in addition to the combined channel, the intensity stereo information.
  • the intensity stereo information depends on the energy of the first channel, the energy of the second channel or the energy of the combined channel.
  • the BCC technique is described in the AES convention paper 5574 " Binaural Cue Coding Applied to Stereo and Multichannel Audio Compression ", T. Faller, F. Baumgarte, May 2002, Münch en, described.
  • BCC coding a number of audio input channels are converted into a spectral representation, using a DFT-based transformation with overlapping windows. The resulting spectrum is divided into non-overlapping sections, each of which has an index. Each partition has a bandwidth proportional to the equivalent rectangular bandwidth (ERB).
  • the Inter Channel Level Differences (ICLD) and the Inter Channel Time Differences (ICTD) are determined for each partition and for each frame k. The ICLD and ICTD are quantized and encoded to eventually arrive as page information in a BCC bitstream.
  • the inter-channel level differences and the inter-channel time differences are given for each channel relative to a reference channel. Then, the parameters are calculated according to predetermined formulas that depend on the particular partitions of the signal to be processed.
  • the decoder On the decoder side, the decoder typically receives a mono signal and the BCC bit stream.
  • the mono signal is transformed into the frequency domain and input to a spatial synthesis block which also receives decoded ICLD and ICTD values.
  • the BCC parameters ICLD and ICTD are used to perform a mono signal weighting operation to synthesize the multichannel signals representing, after a frequency / time conversion, a reconstruction of the original multichannel audio signal.
  • the joint stereo module 60 operates to output the channel-side information such that the parametric channel data is quantized and coded ICLD or ICTD parameters using one of the original channels as the reference channel for encoding the channel side information.
  • the carrier signal is formed from the sum of the participating source channels.
  • the above techniques provide only a monodic representation for a decoder that can only process the carrier channel, but is unable to process the parametric data to produce one or more approximations of more than one input channel.
  • Fig. 5 shows such a BCC scheme for encoding / transmission of multi-channel audio signals.
  • the multi-channel audio input signal at an input 110 of a BCC encoder 112 is down-mixed in a so-called downmix block 114.
  • the original multi-channel signal at the input 110 is a 5-channel surround signal having a front left channel, a front right channel, a left surround channel, a right surround channel and a center channel.
  • the downmix block 114 generates a sum signal by simply adding these five channels into a mono signal.
  • This single channel is output on a sum signal line 115.
  • Page information provided by the BCC analysis block 116 is output on a page information line 117.
  • inter-channel level differences ICLD
  • inter-channel time differences ICTD
  • the BCC analysis block 116 is also capable of calculating inter-channel correlation (ICC) values.
  • the sum signal and the page information are transmitted in a quantized and encoded format to a BCC decoder 120.
  • the BCC decoder decomposes the transmitted sum signal into a number of subbands and performs scaling, delays and other processing to provide the subbands of the multichannel audio channels to be output. This processing is performed so that the ICLD, ICTD and ICC parameters (cues) of a reconstructed multichannel signal at output 121 match the corresponding cues for the original multichannel signal at input 110 in BCC encoder 112.
  • the BCC decoder 120 includes a BCC synthesis block 122 and a page information revision block 123.
  • the sum signal on line 115 is fed to a time / frequency conversion unit or filter bank FB 125.
  • FB 125 At the output of the block 125 there exists a number N of subband signals or, in an extreme case, a block of spectral coefficients, when the audio filter bank 125 performs a 1: 1 transform, ie a transform producing N spectral coefficients from N time domain samples.
  • the BCC synthesis block 122 further includes a delay stage 126, a level modification stage 127, a correlation processing stage 128, and an inverse filter bank stage IFB 129.
  • stage 129 At the output of stage 129, the reconstructed Multi-channel audio signal with, for example, five channels in the case of a 5-channel surround system are output to a set of speakers 124 as shown in FIG Fig. 5 or Fig. 4 are shown.
  • the input signal sn is converted into the frequency domain or the filter bank region by means of the element 125.
  • the signal output by element 125 is copied so as to obtain multiple versions of the same signal, as represented by copy node 130.
  • the number of versions of the original signal is equal to the number of output channels in the output signal.
  • each version of the original signal at node 130 undergoes a certain delay d 1 , d 2 , ..., d i , ... d N.
  • the delay parameters are determined by the page information processing block 123 in FIG Fig. 5 and from the inter-channel time differences as determined by the BCC analysis block 116 of FIG Fig. 5 have been calculated derived.
  • the multiplication parameters a 1 , a 2 ,..., A i ,..., A N which are also calculated by the page information processing block 123 based on the interchannel level differences as calculated by the BCC analysis block 116. be calculated.
  • the ICC parameters calculated by BCC analysis block 116 are used to control the functionality of block 128 so that certain correlations between the delayed and level manipulated signals are obtained at the outputs of block 128. It should be noted here that the order of stages 126, 127, 128 is different from the one in FIG Fig. 6 may differ.
  • the BCC analysis is performed frame by frame, so temporally variable, and that further a frequency-wise BCC analysis is obtained as indicated by the filter bank partitioning Fig. 6 is apparent.
  • the BCC parameters are obtained for each spectral band.
  • the audio filter bank 125 decomposes the input signal into, for example, 32 bandpass signals
  • the BCC analysis block obtains a set of BCC parameters for each of the 32 bands.
  • the BCC synthesis block 122 performs Fig. 5 who is detailed in Fig. 6 is a reconstruction, which is based on the exemplified 32 bands.
  • Fig. 4 presented a scenario that is used to determine individual BCC parameters. Normally the ICLD, ICTD and ICC parameters can be defined between channel pairs. However, it is preferred to determine the ICLD and ICTD parameters between a reference channel and each other channel. This is in Fig. 4A shown.
  • ICC parameters can be defined in several ways. Generally speaking, one can determine ICC parameters in the encoder between all possible channel pairs, as shown in FIG Fig. 4B is shown. However, it has been proposed to calculate only ICC parameters between the strongest two channels at a time, as in Fig. 4C where an example is shown in which one ICC parameter between channels 1 and 2 is calculated one at a time, and at another time an ICC parameter between channels 1 and 5 is calculated.
  • the decoder then synthesizes the inter-channel correlation between the strongest channels in the decoder and uses certain heuristic rules to compute and synthesize the inter-channel coherence for the remaining channel pairs.
  • the multiplication parameters a 1 , a N based on the transmitted ICLD parameters
  • the ICLD parameters represent an energy distribution of an original multichannel signal. Without loss of generality, it is preferred as shown in FIG Fig. 4A shown to take four ICLD parameters representing the energy difference between the respective channels and the front left channel.
  • the multiplication parameters a 1 , ..., a N are derived from the ICLD parameters such that the total energy of all reconstructed output channels is the same (or proportional to the energy of the transmitted sum signal).
  • Fig. 7 The embodiment shown is based on the frequency-time conversion, which by the inverse filter banks IFB 129 of Fig. 6 be achieved, waived. Instead, the spectral representations of the individual channels are used at the input of these inverse filter banks and the headphone signal processing device of Fig. 7 supplied to perform the evaluation of the individual multi-channels with the two filters per multi-channel without an additional frequency / time transformation.
  • the multi-channel decoder so z. B. the filter bank 125 of Fig. 6 and the stereo encoder should have the same time / frequency resolution. Furthermore, it is preferred to use one and the same filter bank, which is particularly advantageous in that for the entire processing, as shown in FIG Fig. 1 represents, only a single filter bank is needed. In this case, a particularly efficient processing, since the transformation in the multi-channel decoder and in the stereo encoder do not need to be calculated.
  • the input data or output data in the inventive concept are therefore preferably coded in the frequency domain by means of transformation / filter bank and are coded according to psychoacoustic specifications taking advantage of masking effects, in which case a spectral representation of the signals should be present in particular in the decoder.
  • Examples include MP3 files, AAC files or AC3 files.
  • the input data or output data can also be encoded by summing and subtraction, as is the case with so-called matrixed methods. Examples are Dolby ProLogic, Logic7 or Circle Surround.
  • the data, in particular the multichannel representation can additionally be coded with parametric methods, as is the case with MP3 surround, this method being based on the BCC technique.
  • the inventive method for generating can be implemented in hardware or in software.
  • the implementation may be on a digital storage medium, in particular a floppy disk or CD with electronically readable control signals, which may interact with a programmable computer system such that the method is performed.
  • the invention thus also consists in a computer program product with a program code stored on a machine-readable carrier for carrying out a method according to the invention, when the computer program product runs on a computer.
  • the invention can thus be realized as a computer program with a program code for carrying out the method when the computer program runs on a computer.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Stereophonic System (AREA)
  • Stereo-Broadcasting Methods (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Catalysts (AREA)
  • Circuit For Audible Band Transducer (AREA)

Description

  • Die vorliegende Erfindung bezieht sich auf die Multikanal-Audiotechnik und insbesondere auf Multikanal-Audioanwendungen in Verbindung mit Kopfhörer-Techniken.
  • Die AES-Veröffentlichung "MP3 Surround: Efficient and Compatible Coding of Multi-Channel Audio", J. Herre, C. Faller, C. Ertel, J. Hilpert, A. Hoelzer, C. Spenger, Mai 2004, Berlin, beschreibt die titrateneffiziente Kodierung eines Multikanalsignals, das sich mit MP3-Stereodekodern dekodieren läßt.
  • Die beiden internationalen Patentanmeldungen WO 99/49574 und WO 99/14983 offenbaren Audiosignalverarbeitungstechniken zum Ansteuern eines Paars von gegenüberliegend angeordneten Kopfhörer-Lautsprechern, damit ein Benutzer über die beiden Kopfhörer eine räumliche Wahrnehmung der Audioszene erhält, die nicht nur eine Stereo-Darstellung sondern eine Multikanal-Darstellung ist. So erhält der Hörer über seine bzw. ihre Kopfhörer eine räumliche Wahrnehmung eines Audiostücks, die im besten Fall gleich seiner räumlichen Wahrnehmung ist, wenn der Benutzer in einem Wiedergaberaum sitzen würde, der beispielsweise mit einer 5.1-Audioanlage ausgestattet ist. Zu diesem Zweck wird für jeden Kopfhörer-Lautsprecher jeder Kanal des Multikanal-Audiostücks oder Multikanal-Audiodatenstroms, wie es in Fig. 2 dargestellt ist, einem eigenen Filter zugeführt, wonach dann die jeweils gefilterten zusammengehörenden Kanäle aufaddiert werden, wie es nachfolgend dargestellt wird.
  • Auf einer linken Seite in Fig. 2 befinden sich die Multikanal-Eingänge 20, die zusammen eine Multikanal-Darstellung des Audiostücks oder Audiodatenstroms repräsentieren. Ein solches Szenario ist beispielsweise in Fig. 10 schematisch gezeigt. Fig. 10 zeigt einen Wiedergaberaum 200, in dem eine so genannte 5.1-Audioanlage angeordnet ist. Die 5.1-Audioanlage umfasst einen Mitte-Lautsprecher 201, einen Vorne-Links-Lautsprecher 202, einen Vorne-Rechts-Lautsprecher 203, einen Hinten-Links-Lautsprecher 204 und einen Hinten-Rechts-Lautsprecher 205. Eine 5.1-Audioanlage hat einen zusätzlichen Subwoofer 206, der auch als Low-Frequency-Enhancement-Kanal bezeichnet wird. Im so genannten "Sweet Spot" des Wiedergaberaums 200 befindet sich ein Zuhörer 207 , der einen Kopfhörer 208 trägt, welcher einen linken Kopfhörer-Lautsprecher 209 und einen rechten Kopfhörer-Lautsprecher 210 aufweist.
  • Die in Fig. 2 gezeigte Verarbeitungseinrichtung ist nunmehr ausgebildet, um jeden Kanal 1, 2, 3 der Multikanal-Eingänge 20 mit einem Filter HiL, der den Schallkanal vom Lautsprecher zum linken Lautsprecher 209 in Fig. 10 beschreibt, zu filtern, und um denselben Kanal ferner mit einem Filter HiR zu filtern, der den Schall von einem der fünf Lautsprecher zum rechten Ohr bzw. zum rechten Lautsprecher 210 des Kopfhörers 208 darstellt.
  • Wäre beispielsweise der Kanal 1 in Fig. 2 der vordere linke Kanal, der durch den Lautsprecher 202 in Fig. 10 ausgestrahlt wird, so würde das Filter HiL den durch eine gestrichelte Linie 212 angedeuteten Kanal darstellen, während das Filter H1R den durch eine gestrichelte Linie 213 dargestellten Kanal wiedergeben würde. Wie es in Fig. 10 beispielsweise durch eine gestrichelte Linie 214 angedeutet ist, erhält der linke Kopfhörerlautsprecher 209 nicht nur den Direktschall, sondern auch frühe Reflexionen an einer Rand des Wiedergaberaums und natürlich auch späte Reflexionen, die in einem diffusen Nachhall ausgedrückt werden.
  • Eine solche Filterdarstellung ist in Fig. 11 dargestellt. Insbesondere zeigt Fig. 11 ein schematisches Beispiel für eine Impulsantwort eines Filters, beispielsweise des Filters H1L von Fig. 2 dar. Der Direktschall, der durch die Linie 212 in Fig. 11 dargestellt ist, wird durch einen Peak am Anfang des Filters dargestellt, während frühe Reflexionen, wie sie beispielsweise durch 214 in Fig. 10 dargestellt sind, durch einen mittleren Bereich mit mehreren (diskreten) kleineren Peaks in Fig. 11 wiedergegeben werden. Der diffuse Nachhall ist dann typischerweise nicht mehr nach einzelnen Peaks aufgelöst, da der Schall des Lautsprechers 202 prinzipiell beliebig oft reflektiert wird, wobei die Energie natürlich mit jeder Reflexion und zusätzlicher Ausbreitungsstrecke weiter abnimmt, wie es durch die abnehmende Energie im hinteren Abschnitt, der mit "diffuser Nachhall" in Fig. 11 bezeichnet ist, dargestellt ist.
  • Jedes der in Fig. 2 gezeigten Filter umfasst daher eine Filter-Impulsantwort, die in etwa einen Verlauf hat, wie er durch die schematische Impulsantwortdarstellung in Fig. 11 wiedergegeben ist. Selbstverständlich wird die einzelne Filter-Impulsantwort vom Wiedergaberaum, der Positionierung der Lautsprecher, eventueller Dämpfungseigenschaften im Wiedergaberaum z. B. aufgrund mehrerer anwesender Personen oder im Wiedergaberaum befindlichen Möbeln etc. sowie idealerweise auch von den Eigenschaften der einzelnen Lautsprecher 201 bis 206 abhängen.
  • Die Tatsache, dass sich die Signale von allen Lautsprechern am Ohr des Zuhörers 207 superponieren, wird durch die Addierer 22 und 23 in Fig. 2 dargestellt. Es wird also jeder Kanal mit einem entsprechenden Filter für das linke Ohr gefiltert, um dann die von den Filtern ausgegebenen Signale, die alle für das linke Ohr bestimmt sind, einfach aufzuaddieren, um das Kopfhörer-Ausgangssignal für das linke Ohr L zu erhalten. Analog wird eine Addition durch den Addierer 23 für das rechte Ohr bzw. für den rechten Kopfhörer-Lautsprecher 210 in Fig. 10 vorgenommen, um durch Überlagerung sämtlicher mit einem entsprechenden Filter für das rechte Ohr gefilterten Lautsprecher-Signale das Kopfhörer-Ausgangssignal für das rechte Ohr zu erhalten.
  • Aufgrund der Tatsache, dass es neben dem Direktschall auch frühe Reflexionen und insbesondere auch einen diffusen Nachhall gibt, welche insbesondere für die Raumwahrnehmung von großer Bedeutung sind, damit der Ton nicht synthetisch oder "hölzern" klingt, sondern dem Hörer das Gefühl vermittelt, er sitzt wirklich in einem Konzertsaal mit seinen akustischen Eigenschaften, werden die Impulsantworten der einzelnen Filter 21 alle eine beträchtliche Länge annehmen. Die Faltung jedes einzelnen Multi-Kanals der Multikanal-Darstellung mit zwei Filtern führt daher bereits zu einer erheblichen Rechenaufgabe. Da für jeden einzelnen Multi-Kanal zwei Filter benötigt werden, nämlich einer für das linke Ohr und ein anderer für das rechte Ohr, werden, wenn der Subwoofer-Kanal ebenfalls eigens behandelt wird, für eine Kopfhörer-Wiedergabe einer 5.1-Multikanal-Darstellung insgesamt 12 voneinander unterschiedliche Filter benötigt. Alle Filter haben, wie es aus Fig. 11 ersichtlich ist, eine sehr lange Impulsantwort, um nicht nur den Direktschall sondern auch frühe Reflexionen und den diffusen Nachhall berücksichtigen zu können, der einem Audiostück eigentlich erst die richtige Klangwiedergabe und einen guten Raumeindruck verleiht.
  • Um das bekannte Konzept in die Realität umzusetzen, wird daher, wie es in Fig. 10 gezeigt ist, neben einem Multikanalspieler 220 die sehr aufwendige virtuelle Tonverarbeitung 222 benötigt, die die Signale für die beiden Lautsprecher 209 und 210, die durch Leitungen 224 und 226 in Fig. 10 dargestellt sind, liefert.
  • Kopfhörer-Anlagen zum Erzeugen eines Multikanal-Kopfhörer-Sounds sind daher aufwendig, sperrig und teuer, was an der hohen Rechenleistung, am hohen Strombedarf für die nötige hohe Rechenleistung und am hohen Arbeitsspeicherbedarf für die durchzuführenden Bewertungen mit der Impulsantwort und am damit verbundenen großen Volumen oder teuren Bausteinen für das Abspielgerät liegt. Solche Anwendungen sind daher an Home-PC-Soundkarten bzw. Laptop-Soundkarten oder auch Heim-Stereo-Anlagen gebunden.
  • Insbesondere ist dem immer größer werdenden Markt an mobilen Abspielgeräten, wie beispielsweise mobilen CD-Playern oder insbesondere den Hardware-Playern bleibt der Multikanal-Kopfhörer-Sound verschlossen, da die Rechenanforderungen zum Filtern der Multi-Kanäle mit z. B. 12 unterschiedlichen Filtern sowohl im Hinblick auf die Prozessorressourcen als auch im Hinblick auf den Stromverbrauch der typischerweise batteriebetriebenen Geräte nicht in dem Preissegment realisierbar sind. Hier geht es um ein Preissegment am unteren (niedrigen) Ende der Skala. Gerade dieses Preissegment ist aber aufgrund der großen Stückzahlen wirtschaftlich sehr interessant.
  • Die nachveröffentlichte EP 1 768 451 A1 offenbart eine Vorrichtung zum Codieren eines akustischen Signals und eine Vorrichtung zum Decodieren eines akustischen Signals. Eine Koeffiziententabelle hält Koeffizienten in der Form einer Matrix mit zwei Zeilen und n-Spalten, wobei die Koeffizienten Head-Related-Transfer-Charakteristika simulieren, die zu verwenden sind, wenn ein Signal zu reproduzieren ist. In einer ersten Signalausgabeeinheit wird ein N-Kanal-Frequenzbereichsignal in ein Zwei-Kanal-Downmix-Signal umgesetzt, und zwar gemäß der Koeffiziententabelle. Außerdem existiert eine zweite Signalausgabeeinheit zum Erzeugen von Hilfsinformationen, die zu verwenden sind, um nur die Kanalsignale basierend auf einem Zweikanal-Downmix-Signal zu rekonstruieren, wodurch es möglich wird, dass das Downmix-Signal gemäß einer erwünschten Übertragungsfunktion gefiltert wird. Ein Decodierer reproduziert das ursprüngliche Multikanalsignal durch Reproduzieren der ursprünglichen Multikanalsignalrauminformation, die dann zur Rekonstruktion des Multikanal-Signals verwendet wird.
  • Die Aufgabe der vorliegenden Erfindung besteht darin, ein effizientes Signalverarbeitungskonzept zu liefern, das eine Kopfhörer-Wiedergabe in Multikanal-Qualität auch auf einfachen Wiedergabegeräten ermöglicht.
  • Diese Aufgabe wird durch eine Vorrichtung zum Erzeugen eines codierten Stereo-Signals nach Patentanspruch 1 oder durch ein Verfahren zum Erzeugen eines codierten Stereo-Signals nach Patentanspruch 10 oder ein Computer-Programm nach Patentanspruch 11 gelöst.
  • Der vorliegenden Erfindung liegt die Erkenntnis zugrunde, dass der hoch qualitative und attraktive Multikanal-Kopfhörer-Sound allen verfügbaren Abspielgeräten, wie beispielsweise CD-Playern oder Hardware-Playern, dadurch zur Verfügung gestellt werden kann, dass aus einer Multikanal-Darstellung eines Audiostücks oder Audiodatenstroms, also beispielsweise einer 5.1-Darstellung eines Audiostücks außerhalb eines Hardware-Players, also z. B. in einem rechenstarken Computer eines Providers einer Kopfhörer-Signalverarbeitung unterzogen. Erfindungsgemäß wird das Ergebnis Kopfhörer-Signalverarbeitung jedoch nicht einfach abgespielt, sondern einem typischen Audio-Stereo-Codierer zugeführt, der dann aus dem linken Kopfhörerkanal und dem rechten Kopfhörerkanal ein codiertes Stereosignal erzeugt.
  • Dieses codierte Stereosignal kann dann, wie jedes andere codierte Stereosignal, das keine Multikanaldarstellung aufweist, dem Hardware-Player oder z. B. einem mobilen CD-Player in Form einer CD zugeführt werden. Das Wiedergabegerät wird dann den Benutzer mit einem Kopfhörer-Multikanal-Sound versorgen, ohne dass irgendwelche zusätzlichen Ressourcen bzw. Einrichtungen an bereits bestehenden Geräten hinzugefügt werden müssen. Erfindungsgemäß wird das Ergebnis der Kopfhörer-Signalverarbeitung, also das linke und das rechte Kopfhörersignal nicht, wie im Stand der Technik, in einem Kopfhörer wiedergegeben, sondern codiert und als codierte Stereo-Daten ausgegeben.
  • Eine solche Ausgabe kann eine Speicherung, eine Übertragung oder irgendetwas ähnliches sein. Eine solche Datei mit codierten Stereodaten kann dann ohne weiteres jedem beliebigen für Stereo-Wiedergabe ausgebildeten Wiedergabegerät zugeführt werden, ohne dass der Benutzer irgendwelche Änderungen an seinem Gerät durchführen müsste.
  • Das erfindungsgemäße Konzept, aus dem Ergebnis der Kopfhörer-Signalverarbeitung ein codiertes Stereo-Signal zu erzeugen, ermöglicht es somit, dass die Multikanal-Darstellung, die eine wesentlich bessere und lebensnahere Qualität für einen Benutzer liefert, auch auf allen einfachen und sehr stark verbreiteten und in Zukunft noch stärker verbreiteten Hardware-Playern eingesetzt werden kann.
  • Bei einem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung wird von einer codierten Multikanal-Darstellung ausgegangen, also einer Parameterdarstellung, die einen oder typischerweise zwei Basiskanäle aufweist, und die ferner Parameterdaten aufweist, um auf der Basis der Basiskanäle und der Parameterdaten die Multi-Kanäle der Multikanaldarstellung zu erzeugen. Nachdem ein Frequenzbereichbasiertes Verfahren zur Multikanal-Decodierung bevorzugt wird, wird erfindungsgemäß die Kopfhörer-Signalverarbeitung nicht in dem Zeitbereich durch Faltung des Zeitsignals mit der Impulsantwort durchgeführt, sondern im Frequenzbereich durch Multiplikation mit der Filter-Übertragungsfunktion.
  • Dies ermöglicht die Einsparung von wenigstens einer Rücktransformation vor der Kopfhörer-Signalverarbeitung und ist insbesondere dann vorteilhaft, wenn auch der nachfolgende Stereo-Codierer im Frequenzbereich arbeitet, sodass dann, ohne dass jemals in den Zeitbereich gegangen werden muss, die Stereo-Codierung des Kopfhörer-Stereo-Signals ebenfalls ohne Gang in den Zeitbereich erfolgen kann. Die Verarbeitung von der Multikanal-Darstellung bis zum codierten Stereosignal ohne Einschaltung eines Zeitbereichs oder durch eine wenigstens reduzierte Anzahl von Transformationen ist nicht nur im Hinblick auf die Rechenzeiteffizienz interessant, sondern grenzt Qualitätsverluste ein, da weniger Verarbeitungsstufen auch weniger Artefakte in das Audiosignal einführen.
  • Insbesondere bei Block-basierten Verfahren, die unter Berücksichtigung einer psychoakustischen Maskierungsschwelle quantisieren, wie es für den Stereo-Codierer bevorzugt wird, ist es wichtig, so viel Tandem-Codierungs-Artefakte als möglich zu verhindern.
  • Bei einem besonders bevorzugten Ausführungsbeispiel der vorliegenden Erfindung wird als Multikanal-Darstellung eine BCC-Darstellung mit einem oder vorzugsweise zwei Basiskanälen verwendet. Nachdem das BCC-Verfahren im Frequenzbereich arbeitet, werden die Multi-Kanäle nicht, wie beim BCC-Decodierer üblich, nach ihrer Synthese in den Zeitbereich transformiert. Stattdessen wird die blockweise vorliegende Spektraldarstellung der Multikanäle verwendet und der Kopfhörer-Signalverarbeitung unterzogen. Hierzu werden die Übertragungsfunktionen der Filter verwendet, also die Fourier-Transformierten der Impulsantworten, um eine Multiplikation zwischen der Spektraldarstellung der Multi-Kanäle und den Filter-Übertragungsfunktionen durchzuführen. Sofern die Impulsantworten der Filter zeitlich länger als ein Block von Spektralkomponenten am Ausgang des BCC-Decodierers sind, wird eine blockweise Filterverarbeitung bevorzugt, bei der die Impulsantworten der Filter im Zeitbereich getrennt werden und blockweise transformiert werden, um dann entsprechende für solche Maßnahmen nötige Gewichtungen der Spektren durchzuführen, wie sie beispielsweise in der WO 94/01933 offenbart sind.
  • Bevorzugte Ausführungsbeispiele der vorliegenden Erfindung werden nachfolgend Bezug nehmend auf die beiliegenden Zeichnungen detailliert erläutert. Es zeigen:
  • Fig. 1
    ein Blockschaltbild der erfindungsgemäßen Vorrichtung zum Erzeugen eines codierten Stereo-Signals;
    Fig. 2
    eine Detaildarstellung einer Implementierung der Kopfhörer-Signalverarbeitung von Fig. 1;
    Fig. 3
    einen bekannten Joint-Stereo-Codierer zum Erzeugen von Kanaldaten und parametrischen Multikanal-Informationen;
    Fig. 4
    eine Darstellung eines Schemas zum Bestimmen von ICLD-, ICTD- und ICC-Parametern für eine BCC-Codierung/Decodierung;
    Fig. 5
    eine Blockdiagrammdarstellung einer BCC-Codierer/Decodierer-Kette;
    Fig. 6
    ein Blockdiagramm einer Implementierung des BCC-Synthese-Blocks von Fig. 5;
    Fig. 7
    eine Kaskadierung zwischen einem Multikanal-Decodierer und der Kopfhörer-Signalverarbeitung ohne Transformation in den Zeitbereich;
    Fig. 8
    eine Kaskadierung zwischen der Kopfhörer-Signalverarbeitung und einem Stereo-Codierer ohne Transformation in den Zeitbereich;
    Fig. 9
    ein Prinzip-Blockdiagramm eines bevorzugten Stereo-Codierers;
    Fig. 10
    eine Prinzipdarstellung eines WiedergabeSzenarios zum Bestimmen der Filterfunktionen von Fig. 2;
    Fig. 11
    eine prinzipielle Darstellung einer zu erwartenden Impulsantwort eines Filters, das gemäß Fig. 10 bestimmt ist.
  • Fig. 1 zeigt ein Prinzip-Blockschaltbild einer erfindungsgemäßen Vorrichtung zum Erzeugen eines codierten Stereo-Signals eines Audiostücks oder Audiodatenstroms. Das Stereo-Signal umfasst in uncodierter Form einen uncodierten ersten Stereokanal 10a sowie eine uncodierten zweiten Stereo-Kanal 10b und wird aus einer Multikanal-Darstellung des Audiostücks oder Audiodatenstroms erzeugt, wobei die Multikanal-Darstellung Informationen über mehr als zwei Multi-Kanäle aufweist. Wie später noch dargestellt wird, kann die Multikanal-Darstellung in einer uncodierten oder codierten Form vorliegen. Ist die Multikanal-Darstellung in uncodierter Form vorhanden, so umfasst sie drei oder mehr Multi-Kanäle. Bei einem bevorzugten Anwendungs-Szenario umfasst die Multikanal-Darstellung fünf Kanäle und einen Subwoofer-Kanal.
  • Ist die Multikanal-Darstellung dagegen in einer codierten Form vorhanden, so umfasst diese codierte Form typischerweise einen oder mehrere Basis-Kanäle sowie Parameter zum Synthetisieren der drei oder mehr Multi-Kanäle aus dem einen oder den beiden Basiskanälen. Ein Multikanal-Decodierer 11 ist daher ein Beispiel für eine Einrichtung zum Bereitstellen der mehr als zwei Multi-Kanäle aus der Multikanal-Darstellung. Liegt die Multikanal-Darstellung dagegen bereits in uncodierter Form vor, also z. B. in Form von 5+1 PCM-Kanälen, so entspricht die Einrichtung zum Bereitstellen einem Eingangsanschluss für eine Einrichtung 12 zum Durchführen einer Kopfhörer-Signalverarbeitung, um das uncodierte Stereosignal mit dem uncodierten ersten Stereo-Kanal 10a und dem uncodierten zweiten Stereo-Kanal 10b zu erzeugen.
  • Vorzugsweise ist die Einrichtung 12 zum Durchführen Kopfhörer-Signalverarbeitung ausgebildet, um die Multi-Kanäle der Multikanal-Darstellung jeweils mit einer ersten Filterfunktion für den ersten Stereo-Kanal und mit einer zweiten Filterfunktion für den zweiten Stereo-Kanal zu bewerten und bewertete Multi-Kanäle jeweils aufzuaddieren, um den uncodierten ersten Stereo-Kanal und den uncodierten zweiten Stereo-Kanal zu erhalten, wie es anhand von Fig. 2 dargestellt worden ist. Der Einrichtung 12 zum Durchführen der Kopfhörer-Signalverarbeitung ist ein Stereo-Codierer 13 nachgeschaltet, der ausgebildet ist, um den ersten uncodierten Stereo-Kanal 10a und den zweiten uncodierten Stereo-Kanal 10b zu codieren, um das codierte Stereo-Signal an einem Ausgang 14 des Stereo-Codierers 13 zu erhalten. Der Stereo-Codierer führt eine Datenraten-Reduktion durch, sodass eine Datenrate, die zum Übertragen des codierten Stereo-Signals nötig ist, kleiner als eine Datenrate ist, die zum Übertragen des uncodierten Stereo-Signals nötig ist.
  • Erfindungsgemäß wird somit ein Konzept erreicht, das es ermöglicht, Mehrkanalton, der auch als "Surround" bezeichnet wird, über einfache Abspielgeräte, wie beispielsweise Hardware-Player, Stereo-Kopfhörern zuzuführen.
  • Als einfache Kopfhörer-Signalverarbeitung kann z. B. die Summe bestimmter Kanäle gebildet werden, um die Ausgangskanäle für die Stereo-Daten zu erhalten. Verbesserte Verfahren arbeiten mit komplexeren Algorithmen, die wiederum eine bessere Qualität der Wiedergabe erreichen.
  • Es sei darauf hingewiesen, dass es das erfindungsgemäße Konzept ermöglicht, dass die rechenaufwendigen Schritte zum Multikanal-Decodieren und zum Durchführen der Kopfhörer-Signalverarbeitung nicht im Abspielgerät selbst durchgeführt werden, sondern extern durchgeführt werden. Das Ergebnis des erfindungsgemäßen Konzepts ist eine codierte Stereo-Datei, die beispielsweise ein MP3-File, ein AAC-File, ein HE-AAC-File oder irgendein anderes Stereo-File ist.
  • Bei anderen Ausführungsbeispielen können auch die Multikanal-Decodierung, die Kopfhörer-Signalverarbeitung und die Stereo-Codierung auf unterschiedlichen Geräten ausgeführt werden, da die Ausgangsdaten bzw. Eingangsdaten der einzelnen Blöcke leicht portierbar und standardisiert erzeugbar und abspeicherbar sind.
  • Nachfolgend wird Bezug nehmend auf Fig. 7 eine bevorzugte Ausführungsform der vorliegenden Erfindung dargestellt, bei der der Multikanal-Decodierer 11 eine Filterbank oder eine FFT-Funktion aufweist, derart, dass die Multikanal-Darstellung im Frequenzbereich geliefert wird. Im Einzelnen werden die einzelnen Multi-Kanäle als Blöcke von Spektralwerten für jeden Kanal separat erzeugt. Erfindungsgemäß wird dann die Kopfhörer-Signalverarbeitung nicht im Zeitbereich durch Faltung der zeitlichen Kanäle mit den Filter-Impulsantworten durchgeführt, sondern es wird eine Multiplikation der Frequenzbereichs-Darstellung der Multikanäle mit einer Spektraldarstellung der Filter-Impulsantwort durchgeführt. Am Ausgang der Kopfhörer-Signalverarbeitung wird dann ein uncodiertes Stereosignal erreicht, das jedoch nicht im Zeitbereich vorliegt, sondern das einen linken und einen rechten Stereo-Kanal umfasst, wobei ein solcher Stereo-Kanal als Folge von Blöcken von Spektralwerten gegeben ist, wobei jeder Block von Spektralwerten ein Kurzzeitspektrum des Stereo-Kanals darstellt.
  • Bei dem in Fig. 8 gezeigten Ausführungsbeispiel wird der Kopfhörer-Signalverarbeitungs-Block 12 eingangsseitig entweder mit Zeitbereichs- oder Frequenzbereichsdaten versorgt. Ausgangsseitig werden die uncodierten Stereo-Kanäle im Frequenzbereich, also wieder als Folge von Blöcken von Spektralwerten erzeugt. Als Stereo-Codierer 13 wird in diesem Fall ein Stereo-Codierer bevorzugt, der Transformations-basiert ist, der also Spektralwerte verarbeitet, ohne dass zwischen der Kopfhörer-Signalverarbeitung 12 und dem Stereo-Codierer 13 eine Frequenz/Zeit-Umsetzung und eine anschließende Zeit-Frequenz-Umsetzung erforderlich ist. Ausgangsseitig gibt der Stereo-Codierer 13 dann eine Datei mit dem codierten Stereosignal aus, die neben Seiteninformationen eine codierte Form von Spektralwerten umfasst.
  • Bei einem besonders bevorzugten Ausführungsbeispiel der vorliegenden Erfindung wird auf dem Weg von der Multikanal-Darstellung am Eingang des Blocks 11 von Fig. 1 bis zur codierten Stereo-Datei am Ausgang 14 der Einrichtung von Fig. 1 eine durchgehende Frequenzbereichs-Verarbeitung durchgeführt, ohne dass eine Umsetzung in den Zeitbereich und gegebenenfalls wieder eine Umsetzung in den Frequenzbereich zu erfolgen hat. Wird als Stereo-Codierer ein MP3-Codierer oder ein AAC-Codierer eingesetzt, so wird bevorzugt, das Fourier-Spektrum am Ausgang des Kopfhörer-Signalverarbeitungs-Blocks in ein MDCT-Spektrum umzusetzen. Damit wird erfindungsgemäß sichergestellt, dass die Phaseninformationen, die für die Faltung/Bewertung der Kanäle im Kopfhörer-Signalverarbeitungs-Block exakt benötigt werden, in die nicht derart phasen-korrekt arbeitende MDCT-Darstellung umgerechnet werden, sodass für den Stereo-Codierer im Gegensatz zu einem normalen MP3-Codierer oder einem normalen AAC-Codierer keine Einrichtung zum Umsetzen von Zeitbereich in den Frequenzbereich, also in das MDCT-Spektrum benötigt wird.
  • Fig. 9 zeigt ein allgemeines Blockschaltbild für einen bevorzugten Stereo-Codierer. Der Stereo-Codierer umfasst eingangsseitig ein Joint-Stereo-Modul 15, das vorzugsweise adaptiv bestimmt, ob eine gemeinsame Stereocodierung beispielsweise in Form einer Mitte/Seite-Codierung einen höheren Codiergewinn liefert als eine getrennte Verarbeitung von linkem und rechtem Kanal. Das Joint-Stereo-Modul 15 kann ferner ausgebildet sein, um eine Intensity-Stereo-Codierung durchzuführen, wobei eine Intensity-Stereo-Codierung insbesondere bei höheren Frequenzen einen beträchtlichen Codiergewinn liefert, ohne dass hörbare Artefakte auftreten. Der Ausgang des Joint-Stereo-Moduls 15 wird dann unter Verwendung verschiedener weiterer Redundanz-reduzierender Maßnahmen, wie beispielsweise einer TNS-Filterung, einer Rauschsubstitution etc. weiterverarbeitet, um dann die Ergebnisse einem Quantisierer 16 zuzuführen, der unter Verwendung einer psychoakustischen Maskierungsschwelle eine Quantisierung der Spektralwerte erreicht. Die Quantisierer-Schrittweite ist dabei derart gewählt, dass das durch das Quantisieren eingeführte Rauschen unterhalb der psychoakustischen Markierungsschwelle bleibt, sodass eine Datenratenreduktion erreicht wird, ohne dass die durch die verlustbehaftete Quantisierung eingeführten Verzerrungen hörbar werden. Dem Quantisierer 16 ist schließlich ein Entropie-Codierer 17 nachgeschaltet, der eine verlustlose Entropie-Codierung der quantisierten Spektralwerte durchführt. Am Ausgang des Entropie-Codierers liegt dann das codierte Stereosignal vor, das neben den Entropie-codierten Spektralwerten zur Decodierung nötige Seiteninformationen umfasst.
  • Nachfolgend wird auf bevorzugte Implementierungen des Multikanal-Decodierers bzw. auf bevorzugte Multikanal-Darstellungen anhand der Fig. 3 bis 6 eingegangen.
  • So existieren in der Technik viele Techniken zum Reduzieren der Datenmenge, die zur Übertragung eines Multikanal-Audiosignals benötigt wird. Solche Techniken werden Joint-Stereo-Techniken genannt. Zu diesem Zweck wird auf Fig. 3 verwiesen, die eine Joint-Stereo-Vorrichtung 60 zeigt. Diese Vorrichtung kann eine Vorrichtung sein, die beispielsweise die Intensity-Stereo- (IS-) Technik oder die Binaural Cue Codiertechnik (BCC) implementiert. Ein solches Gerät empfängt üblicherweise als Eingangssignal zumindest zwei Kanäle CH1, CH2, .... CHn, und gibt einen einzigen Trägerkanal sowie parametrische Multikanalinformationen aus. Die parametrischen Daten sind so definiert, dass in einem Decodierer eine Approximation eines Ursprungskanals (CH1, CH2, ..., CHn) berechnet werden kann.
  • Normalerweise wird der Trägerkanal Subband-Abtastwerte, Spektralkoeffizienten, Zeitbereichsabtastwerte etc. umfassen, die eine relativ feine Darstellung des zugrundeliegenden Signals liefern, während die parametrischen Daten keine solchen Abtastwerte oder Spektralkoeffizienten umfassen, sondern Steuerparameter zum Steuern eines bestimmten Rekonstruktionsalgorithmus, wie beispielsweise Gewichten durch Multiplizieren, durch Zeitverschieben, durch Frequenzverschieben, etc. Die parametrischen Multikanalinformationen umfassen daher eine relativ grobe Darstellung des Signals oder des zugeordneten Kanals. In Zahlen ausgedrückt beträgt die Menge an Daten, die von einem Trägerkanal benötigt wird, eine Menge von etwa 60 bis 70 kBit/s, während die Menge an Daten, die durch parametrische Seiteninformationen für einen Kanal benötigt wird, im Bereich von 1,5 bis 2,5 kBit/s ist. Es sei darauf hingewiesen, dass die vorstehenden Zahlen für komprimierte Daten gelten. Selbstverständlich benötigt ein nicht-komprimierter CD-Kanal Datenraten im Bereich von etwa dem Zehnfachen. Ein Beispiel für parametrische Daten sind die bekannten Skalenfaktoren, Intensity-Stereo-Informationen oder BCC-Parameter, wie es nachfolgend dargelegt wird.
  • Die Technik der Intensity-Stereo-Codierung ist in dem AES-Preprint 3799, "Intensity Stereo Coding", J. Herre, K.H. Brandenburg, D. Lederer, Februar 1994, Amsterdam beschrieben. Allgemein basiert das Konzept von Intensity Stereo auf einer Hauptachsentransformation, die auf Daten beider stereophoner Audiokanäle durchzuführen ist. Wenn die meisten Datenpunkte um die erste Hauptachse herum konzentriert sind, kann ein Codiergewinn erreicht werden, indem beide Signale um einen bestimmten Winkel gedreht werden, bevor die Codierung stattfindet. Dies ist jedoch nicht immer für reale stereophone Reproduktionstechniken gegeben. Daher wird diese Technik dahingehend modifiziert, dass die zweite orthogonale Komponente von der Übertragung in dem Bitstrom ausgeschlossen wird. Somit bestehen die rekonstruierten Signale für den linken und den rechten Kanal aus unterschiedlich gewichteten oder skalierten Versionen desselben übertragenen Signals. Dennoch unterscheiden sich die rekonstruierten Signale in ihrer Amplitude, sie sind jedoch identisch im Hinblick auf ihre Phaseninformationen. Die Energie-Zeit-Hüllkurven beider ursprünglicher Audiokanäle werden jedoch durch die selektive Skalierungsoperation beibehalten, die typischerweise auf frequenzselektive Art und Weise arbeitet. Dies entspricht der menschlichen Wahrnehmung des Schalls bei hohen Frequenzen, wo die dominanten räumlichen Informationen durch die Energiehüllkurven bestimmt werden.
  • Zusätzlich wird bei praktischen Implementierungen das übertragene Signal, d. h. der Trägerkanal aus dem Summensignal des linken Kanals und des rechten Kanals anstatt der Rotation beider Komponenten erzeugt. Ferner wird diese Verarbeitung, d. h. das Erzeugen von Intensity-Stereo-Parametern zum Durchführen der Skalierungsoperationen frequenzselektiv durchgeführt, d. h. unabhängig für jedes Skalenfaktorband, d. h. für jede Codiererfrequenzpartition. Vorzugsweise werden beide Kanäle kombiniert, um einen kombinierten oder "Träger"-Kanal und zusätzlich zu dem kombinierten Kanal die Intensity-Stereo-Informationen zu bilden. Die Intensity-Stereo-Informationen hängen von der Energie des ersten Kanals, der Energie des zweiten Kanals oder der Energie des kombinierten Kanals ab.
  • Die BCC-Technik ist in dem AES-Convention-Paper 5574 "Binaural Cue Coding applied to stereo and multichannel audio compression", T. Faller, F. Baumgarte, Mai 2002, München, beschrieben. Bei der BCC-Codierung wird eine Anzahl von Audioeingangskanälen in eine Spektraldarstellung umgewandelt, und zwar unter Verwendung einer DFT-basierten Transformation mit überlappenden Fenstern. Das resultierende Spektrum wird in nicht-überlappende Abschnitte eingeteilt, von denen jeder einen Index hat. Jede Partition hat eine Bandbreite proportional zu der äquivalenten Rechteckbandbreite (ERB). Die Inter-Kanal-Pegelunterschiede (ICLD; ICLD = Inter Channel Level Differences) und die Interkanal-Zeitunterschiede (ICTD; ICTD = Inter Channel Time Differences) werden für jede Partition und für jeden Frame k ermittelt. Die ICLD und ICTD werden quantisiert und codiert, um schließlich als Seiteninformationen in einen BCC-Bitstrom zu kommen. Die Interkanal-Pegelunterschiede und die Interkanal-Zeitunterschiede sind für jeden Kanal relativ zu einem Referenzkanal gegeben. Dann werden die Parameter gemäß vorbestimmter Formeln berechnet, die von den bestimmten Partitionen des zu verarbeitenden Signals abhängen.
  • Auf Decodiererseite empfängt der Decodierer typischerweise ein Monosignal und den BCC-Bitstrom. Das Monosignal wird in den Frequenzbereich transformiert und in einen Raumsyntheseblock (Spatial-Syntheseblock) eingegeben, der auch decodierte ICLD- und ICTD-Werte empfängt. In dem Spatial-Syntheseblock werden die BCC-Parameter (ICLD und ICTD) verwendet, um eine Gewichtungsoperation des Monosignals durchzuführen, um die Multikanalsignale zu synthetisieren, die, nach einer Frequenz-/Zeit-Umwandlung eine Rekonstruktion des ursprünglichen Multikanal-Audiosignals darstellen.
  • Im Fall von BCC ist das Joint-Stereo-Modul 60 wirksam, um die kanalseitigen Informationen so auszugeben, dass die parametrischen Kanaldaten quantisierte und codierte ICLD- oder ICTD-Parameter sind, wobei einer der ursprünglichen Kanäle als Referenzkanal zum Codieren der Kanalseiteninformationen verwendet wird.
  • Normalerweise wird der Trägersignal aus der Summe der teilnehmenden Ursprungskanäle gebildet.
  • Natürlich liefern die obigen Techniken nur eine Monodarstellung für einen Decodierer, der nur den Trägerkanal verarbeiten kann, der jedoch nicht in der Lage ist, die parametrischen Daten zur Erzeugung von einer oder mehreren Approximationen von mehr als einem Eingangskanal zu verarbeiten.
  • Die BCC-Technik ist auch in den US-Patentveröffentlichungen US 2003/0219130 A1 , US 2003/0026441 A1 und US 2003/0035553 A1 beschrieben. Zusätzlich wird auf die Fachveröffentlichung "Binaural Cue Coding. Part II: Schemes and Applications", T. Faller und F. Baumgarte, IEEE Trans. On Audio and Speech Proc. Bd. 11, Nr. 6, November 2003 verwiesen.
  • Nachfolgend wird ein typisches BCC-Schema zur Multikanalaudiocodierung detaillierter dargestellt, und zwar Bezug nehmend auf die Fig. 4 bis 6.
  • Fig. 5 zeigt ein solches BCC-Schema zur Codierung/Übertragung von Multikanalaudiosignalen. Das Multikanalaudioeingangssignal an einem Eingang 110 eines BCC-Codierers 112 wird in einem sogenannten Downmix-Block 114 heruntergemischt. Bei diesem Beispiel ist das ursprüngliche Multikanalsignal an dem Eingang 110 ein 5-Kanal-Surround-Signal mit einem vorderen linken Kanal, einem vorderen rechten Kanal, einem linken Surround-Kanal, einem rechten Surround-Kanal und einem Mittenkanal. Bei dem bevorzugten Ausführungsbeispiel der vorliegenden Erfindung erzeugt der Downmix-Block 114 ein Summensignal durch eine einfache Addition dieser fünf Kanäle in ein Monosignal.
  • Andere Downmixing-Schemen sind in der Technik bekannt, so dass unter Verwendung eines Multikanal-Eingangssignals ein Downmix-Kanal mit einem einzigen Kanal erhalten wird.
  • Dieser einzige Kanal wird an einer Summensignalleitung 115 ausgegeben. Eine Seiteninformation, die von dem BCC-Analyseblock 116 erhalten wird, wird auf einer Seiteninformationsleitung 117 ausgegeben.
  • Bei dem BCC-Analyseblock werden Interkanal-Pegelunterschiede (ICLD) und Interkanal-Zeitunterschiede (ICTD) berechnet, wie es vorstehend dargestellt worden ist. Neuerdings ist der BCC-Analyseblock 116 auch in der Lage, Interkanal-Korrelationswerte (ICC-Werte) zu berechnen. Das Summensignal und die Seiteninformationen werden in einem quantisierten und codierten Format zu einem BCC-Decodierer 120 übertragen. Der BCC-Decodierer zerlegt das übertragene Summensignal in eine Anzahl von Subbändern und führt Skalierungen, Verzögerungen und andere Verarbeitungsschritte aus, um die Subbänder der auszugebenden Multikanal-Audiokanäle zu liefern. Diese Verarbeitung wird so durchgeführt, dass die ICLD-, ICTD- und ICC-Parameter (Cues) eines rekonstruierten Multikanalsignals am Ausgang 121 mit den entsprechenden Cues für das ursprüngliche Multikanalsignal am Eingang 110 in dem BCC-Codierer 112 übereinstimmen. Zu diesem Zweck umfasst der BCC-Decodierer 120 einen BCC-Syntheseblock 122 und einen Seiteninformationenüberarbeitungsblock 123.
  • Nachfolgend wird der interne Aufbau des BCC-Syntheseblocks 122 Bezug nehmend auf Fig. 6 dargestellt. Das Summensignal auf der Leitung 115 wird in eine Zeit-/Frequenz-Umwandlungseinheit oder Filterbank FB 125 eingespeist. Am Ausgang des Blocks 125 existiert eine Anzahl N von Subbandsignalen oder, in einem Extremfall, ein Block von Spektralkoeffizienten, wenn die Audio-Filterbank 125 eine 1:1-Transformation durchführt, d. h. eine Transformation, die N Spektralkoeffizienten aus N Zeitbereichsabtastwerten erzeugt.
  • Der BCC-Syntheseblock 122 umfasst ferner eine Verzögerungsstufe 126, eine Pegelmodifikationsstufe 127, eine Korrelationsverarbeitungsstufe 128 und eine Inversfilterbankstufe IFB 129. Am Ausgang der Stufe 129 kann das rekonstruierte Multikanalaudiosignal mit beispielsweise fünf Kanälen im Falle eines 5-Kanal-Surroundsystems zu einem Satz von Lautsprechern 124 ausgegeben werden, wie sie in Fig. 5 oder Fig. 4 dargestellt sind.
  • Das Eingangssignal sn wird in den Frequenzbereich oder den Filterbankbereich mittels des Elements 125 umgewandelt. Das Signal, das vom Element 125 ausgegeben wird, wird derart kopiert, dass mehrere Versionen desselben Signals erhalten werden, wie es durch den Kopierknoten 130 dargestellt ist. Die Anzahl der Versionen des ursprünglichen Signals ist gleich der Anzahl der Ausgangskanäle in dem Ausgangssignal. Dann wird jede Version des ursprünglichen Signals am Knoten 130 einer bestimmten Verzögerung d1, d2, ..., di, ... dN unterzogen. Die Verzögerungsparameter werden durch den Seiteninformationsverarbeitungsblock 123 in Fig. 5 berechnet und von den Interkanal-Zeitunterschieden, wie sie durch den BCC-Analyseblock 116 von Fig. 5 berechnet worden sind, abgeleitet.
  • Dasselbe gilt für die Multiplikationsparameter a1, a2, ..., ai, ..., aN, die ebenfalls durch den Seiteninformationsverarbeitungsblock 123 basierend auf den Interkanal-Pegelunterschieden, wie sie durch den BCC-Analyseblock 116 berechnet worden sind, berechnet werden.
  • Die durch den BCC-Analyseblock 116 berechneten ICC-Parameter werden zum Steuern der Funktionalität des Blocks 128 verwendet, so dass bestimmte Korrelationen zwischen den verzögerten und in ihren Pegeln manipulierten Signalen an den Ausgängen des Blocks 128 erhalten werden. Es sei hier darauf hingewiesen, dass die Reihenfolge der Stufen 126, 127, 128 von der in Fig. 6 gezeigten Reihenfolge abweichen kann.
  • Es sei darauf hingewiesen, dass bei einer rahmenweisen Verarbeitung des Audiosignals auch die BCC-Analyse rahmenweise durchgeführt wird, also zeitlich variabel, und dass ferner eine frequenzweise BCC-Analyse erhalten wird, wie es durch die Filterbank-Aufteilung aus Fig. 6 ersichtlich ist. Dies bedeutet, dass die BCC-Parameter für jedes Spektralband erhalten werden. Dies bedeutet ferner, dass in dem Fall, in dem die Audiofilterbank 125 das Eingangssignal in beispielsweise 32 Bandpasssignale zerlegt, der BCC-Analyseblock einen Satz von BCC-Parametern für jedes der 32 Bänder erhält. Natürlich führt der BCC-Syntheseblock 122 von Fig. 5, der detailliert in Fig. 6 dargestellt ist, eine Rekonstruktion durch, die auch auf den beispielhaft genannten 32 Bändern basiert.
  • Nachfolgend wird Bezug nehmend auf Fig. 4 ein Szenario dargestellt, das dazu verwendet wird, um einzelne BCC-Parameter zu bestimmen. Normalerweise können die ICLD-, ICTD- und ICC-Parameter zwischen Kanalpaaren definiert werden. Es wird jedoch bevorzugt, die ICLD- und ICTD-Parameter zwischen einem Referenzkanal und jedem anderen Kanal zu bestimmen. Dies ist in Fig. 4A dargestellt.
  • ICC-Parameter können auf verschiedene Arten und Weisen definiert werden. Allgemein gesagt kann man ICC-Parameter in dem Codierer zwischen allen möglichen Kanalpaaren bestimmen, wie es in Fig. 4B dargestellt ist. Es wurde jedoch vorgeschlagen, nur ICC-Parameter zwischen den stärksten zwei Kanälen zu einem Zeitpunkt zu berechnen, wie es in Fig. 4C dargestellt ist, wo ein Beispiel gezeigt ist, bei dem zu einem Zeitpunkt ein ICC-Parameter zwischen den Kanälen 1 und 2 berechnet wird, und zu einem anderen Zeitpunkt ein ICC-Parameter zwischen den Kanälen 1 und 5 berechnet wird. Der Decodierer synthetisiert dann die Interkanalkorrelation zwischen den stärksten Kanälen in dem Decoder und verwendet bestimmte heuristische Regeln zum Berechnen und Synthetisieren der Interkanalkohärenz für die restlichen Kanalpaare.
  • Bezüglich der Berechnung beispielsweise der Multiplikationsparameter a1, aN basierend auf den übertragenen ICLD-Parametern wird auf das AES-Convention-Paper Nr. 5574 Bezug genommen. Die ICLD-Parameter stellen eine Energieverteilung eines ursprünglichen Mehrkanalsignals dar. Ohne Verlust der Allgemeinheit wird es bevorzugt, wie es in Fig. 4A gezeigt, vier ICLD-Parameter zu nehmen, die die Energiedifferenz zwischen den jeweiligen Kanälen und dem vorderen linken Kanal darstellen. In dem Seiteninformationsverarbeitungsblock 122 werden die Multiplikationsparameter a1, ..., aN von den ICLD-Parametern so abgeleitet, dass die gesamte Energie aller rekonstruierter Ausgangskanäle dieselbe ist (oder proportional zu der Energie des übertragenen Summensignals ist).
  • Bei dem in Fig. 7 gezeigten Ausführungsbeispiel wird auf die Frequenz-Zeit-Umsetzung, die durch die inversen Filterbanken IFB 129 von Fig. 6 erreicht werden, verzichtet. Es werden stattdessen die Spektraldarstellungen der einzelnen Kanäle am Eingang dieser inversen Filterbanken verwendet und der Kopfhörer-Signalverarbeitungs-Vorrichtung von Fig. 7 zugeführt, um ohne eine zusätzliche Frequenz/Zeit-Transformation die Bewertung der einzelnen Multi-Kanäle mit den jeweils zwei Filtern pro Multi-Kanal durchzuführen.
  • Im Hinblick auf eine komplette im Frequenzbereich stattfindende Verarbeitung sei darauf hingewiesen, dass dann der Multikanal-Decodierer, also z. B. die Filterbank 125 von Fig. 6 und der Stereo-Codierer dieselbe Zeit/Frequenzauflösung haben sollen. Ferner wird es bevorzugt, ein und dieselbe Filterbank zu verwenden, was insbesondere auch dahingehend vorteilhaft ist, dass für die gesamte Verarbeitung, wie sie in Fig. 1 darstellt ist, nur eine einzige Filterbank benötigt wird. In diesem Fall ergibt sich eine besonders effiziente Verarbeitung, da die Transformation im Multikanal-Decodierer und im Stereo-Encodierer nicht berechnet werden müssen.
  • Die Eingangsdaten bzw. Ausgangsdaten beim erfindungsgemäßen Konzept sind daher vorzugsweise im Frequenzbereich codiert mittels Transformation/Filterbank und sind nach psychoakustischen Vorgaben unter Ausnutzung von Verdeckungseffekten codiert, wobei insbesondere im Decodierer eine spektrale Darstellung der Signale vorliegen sollte. Beispiele hierfür sind MP3-Dateien, AAC-Dateien oder AC3-Dateien. Die Eingangsdaten bzw. Ausgangsdaten können jedoch auch durch Summen- und Differenzbildung codiert sein, wie es bei so genannten matrizierten Verfahren der Fall ist. Beispiele hierfür sind Dolby ProLogic, Logic7 oder Circle Surround. Die Daten insbesondere der Multikanaldarstellung können zusätzlich mit parametrischen Verfahren codiert sein, wie es bei MP3 Surround der Fall ist, wobei dieses Verfahren auf der BCC-Technik basiert.
  • Abhängig von den Gegebenheiten kann das erfindungsgemäße Verfahren zum Erzeugen in Hardware oder in Software implementiert werden. Die Implementierung kann auf einem digitalen Speichermedium, insbesondere einer Diskette oder CD mit elektronisch auslesbaren Steuersignalen erfolgen, die so mit einem programmierbaren Computersystem zusammenwirken können, dass das Verfahren ausgeführt wird. Allgemein besteht die Erfindung somit auch in einem Computer-Programm-Produkt mit einem auf einem maschinenlesbaren Träger gespeicherten Programmcode zur Durchführung eines erfindungsgemäßen Verfahrens, wenn das Computer-Programm-Produkt auf einem Rechner abläuft. In anderen Worten ausgedrückt kann die Erfindung somit als ein Computer-Programm mit einem Programmcode zur Durchführung des Verfahrens realisiert werden, wenn das Computer-Programm auf einem Computer abläuft.

Claims (11)

  1. Vorrichtung zum Erzeugen eines codierten Stereo-Signals eines Audiostücks oder Audiodatenstroms mit einem ersten Stereo-Kanal und einem zweiten Stereo-Kanal aus einer Multikanal-Darstellung des Audiostücks oder Audiodatenstroms, die Informationen über mehr als zwei Multi-Kanäle aufweist, mit folgenden Merkmalen:
    einer Einrichtung (11) zum Bereitstellen der mehr als zwei Multi-Kanäle aus der Multikanal-Darstellung;
    einer Einrichtung (12) zum Durchführen einer Kopfhörer-Signalverarbeitung, um ein uncodiertes Stereosignal mit einem uncodierten ersten Stereo-Kanal (10a) und einem uncodierten zweiten Stereo-Kanal (10b) zu erzeugen, wobei die Einrichtung (12) zum Durchführen ausgebildet ist,
    um jeden Multi-Kanal mit einer ersten Filterfunktion (HiL), die von einer virtuellen Position eines Lautsprechers zum Wiedergeben des Multi-Kanals und einer virtuellen ersten Ohrposition eines Hörers abgeleitet ist, für den ersten Stereo-Kanal und mit einer zweiten Filterfunktion (HiR), die von einer virtuellen Position des Lautsprechers und einer virtuellen zweiten Ohrposition des Hörers abgeleitet ist, für den zweiten Stereo-Kanal zu bewerten, um für jeden Multi-Kanal einen ersten bewerteten Kanal und einen zweiten bewerteten Kanal zu erzeugen, wobei die beiden virtuellen Ohrpositionen des Hörers unterschiedlich sind,
    um die bewerteten ersten Kanäle aufzuaddieren (22), um den uncodierten ersten Stereo-Kanal (10a) zu erhalten, und
    um die bewerteten zweiten Kanäle aufzuaddieren (23), um den uncodierten zweiten Stereo-Kanal (10b) zu erhalten;
    um die erste Filterfunktion (HiL), die Direktschall, Reflexionen und diffusen Nachhall berücksichtigt, und die zweite Filterfunktion (HiR), die Direktschall, Reflexionen und diffusen Nachhall berücksichtigt, zu verwenden, und
    einem Stereo-Codierer (13) zum Codieren des uncodierten ersten Stereo-Kanals (10a) und des uncodierten zweiten Stereo-Kanals (10b), um das codierte Stereo-Signal (14) zu erhalten, wobei der Stereo-Codierer derart ausgebildet ist, dass eine Datenrate, die zum Übertragen des codierten Stereo-Signals nötig ist, kleiner als eine Datenrate ist, die zum Übertragen des uncodierten Stereo-Signals nötig ist.
  2. Vorrichtung nach Anspruch 1, bei der die erste und die zweite Filterfunktion einer Filterimpulsantwort entsprechen, die einen Peak bei einem kleinen Zeitwert, der den Direktschall darstellt, mehrere kleinere Peaks bei mittleren Zeitwerten, die die Reflexionen darstellen, und einen kontinuierlichen Bereich, der nicht mehr nach einzelnen Peaks aufgelöst ist und den diffusen Nachhall darstellt, aufweist.
  3. Vorrichtung nach einem der vorhergehenden Ansprüche,
    bei der die Multikanal-Darstellung einen oder mehrere Basiskanäle sowie Parameterinformationen zum Berechnen der Multi-Kanäle aus einem oder mehreren Basiskanälen aufweist, und
    bei der die Einrichtung (11) zum Bereitstellen ausgebildet ist, um aus dem einen oder den mehreren Basiskanälen und den Parameterinformationen die wenigstens drei Multi-Kanäle zu berechnen.
  4. Vorrichtung nach Anspruch 3,
    bei der die Einrichtung (11) zum Bereitstellen ausgebildet ist, um ausgangsseitig eine blockweise Frequenzbereichsdarstellung für jeden Multikanal zu liefern, und
    bei der die Einrichtung (12) zum Durchführen ausgebildet ist, um die blockweise Frequenzbereichs-Darstellung mit einer Frequenzbereichs-Darstellung der ersten und der zweiten Filterfunktion zu bewerten.
  5. Vorrichtung nach einem der vorhergehenden Ansprüche,
    bei der die Einrichtung (12) zum Durchführen ausgebildet ist, um eine blockweise Frequenzbereichs-Darstellung des uncodierten ersten Stereokanals und des uncodierten zweiten Stereo-Kanals zu liefern, und
    bei der der Stereo-Codierer (13) ein Transformationsbasierter Codierer ist und ferner ausgebildet ist, um die blockweise Frequenzbereichsdarstellung des uncodierten ersten Stereo-Kanals und des uncodierten zweiten Stereo-Kanals ohne eine Umsetzung von der Frequenzbereichs-Darstellung in eine zeitliche Darstellung zu verarbeiten.
  6. Vorrichtung nach einem der vorhergehenden Ansprüche,
    bei der der Stereo-Codierer (13) ausgebildet ist, um eine gemeinsame Stereo-Codierung (15) des ersten und des zweiten Stereokanals durchzuführen.
  7. Vorrichtung nach einem der vorhergehenden Ansprüche,
    bei der der Stereo-Codierer (13) ausgebildet ist, um einen Block von Spektralwerten unter Verwendung einer psychoakustischen Maskierungsschwelle zu quantisieren (16) und einer Entropie-Codierung (17) zu unterziehen, um das codierte Stereo-Signal zu erhalten.
  8. Vorrichtung nach einem der vorhergehenden Ansprüche,
    bei der die Einrichtung (11) zum Bereitstellen als BCC-Decodierer ausgebildet ist.
  9. Vorrichtung nach einem der vorhergehenden Ansprüche,
    bei der die Einrichtung (11) zum Bereitstellen als Multikanal-Decodierer ausgebildet ist, der eine Filterbank mit mehreren Ausgängen aufweist,
    bei der die Einrichtung (12) zum Durchführen ausgebildet ist, um Signale an den Filterbank-Ausgängen mit der ersten und der zweiten Filterfunktion zu bewerten, und
    bei der der Stereo-Codierer (13) ausgebildet ist, um den im Frequenzbereich vorliegenden uncodierten ersten Stereo-Kanal und den im Frequenzbereich vorliegenden uncodierten zweiten Stereo-Kanal zu quantisieren (16) und einer Entropie-Codierung (17) zu unterziehen, um das codierte Stereo-Signal zu erhalten.
  10. Verfahren zum Erzeugen eines codierten Stereo-Signals eines Audiostücks oder Audiodatenstroms mit einem ersten Stereo-Kanal und einem zweiten Stereo-Kanal aus einer Multikanal-Darstellung des Audiostücks oder Audiodatenstroms, die Informationen über mehr als zwei Multi-Kanäle aufweist, mit folgenden Schritten:
    Bereitstellen (11) der mehr als zwei Multi-Kanäle aus der Multikanal-Darstellung;
    Durchführen (12) einer Kopfhörer-Signalverarbeitung, um ein uncodiertes Stereosignal mit einem uncodierten ersten Stereo-Kanal (10a) und einem uncodierten zweiten Stereo-Kanal (10b) zu erzeugen, wobei der Schritt des Durchführens (12) folgende Schritte aufweist:
    Bewerten jedes Multi-Kanals mit einer ersten Filterfunktion (HiL), die von einer virtuellen Position eines Lautsprechers zum Wiedergeben des Multi-Kanals und einer virtuellen ersten Ohrposition eines Hörers abgeleitet ist, für den ersten Stereo-Kanal und mit einer zweiten Filterfunktion (HiR), die von einer virtuellen Position des Lautsprechers und einer virtuellen zweiten Ohrposition des Hörers abgeleitet ist, für den zweiten Stereo-Kanal, um für jeden Multi-Kanal einen ersten bewerteten Kanal und einen zweiten bewerteten Kanal zu erzeugen, wobei die beiden virtuellen Ohrpositionen des Hörers unterschiedlich sind,
    Aufaddieren (22) der bewerteten ersten Kanäle, um den uncodierten ersten Stereo-Kanal (10a) zu erhalten, und
    Aufaddieren (23) der bewerteten zweiten Kanäle, um den uncodierten zweiten Stereo-Kanal (10b) zu erhalten;
    Verwenden der ersten Filterfunktion (HiL), die Direktschall, Reflexionen und diffusen Nachhall berücksichtigt, und der zweiten Filterfunktion (HiR), die Direktschall, Reflexionen und diffusen Nachhall berücksichtigt; und
    Stereo-Codieren (13) des uncodierten ersten Stereo-Kanals (10a) und des uncodierten zweiten Stereo-Kanals (10b), um das codierte Stereo-Signal (14) zu erhalten,
    wobei der Schritt des Stereo-Codierens derart ausgeführt wird, dass eine Datenrate, die zum Übertragen des codierten Stereo-Signals nötig ist, kleiner als eine Datenrate ist, die zum Übertragen des uncodierten Stereo-Signals nötig ist.
  11. Computer-Programm mit einem Programmcode zum Durchführen des Verfahrens zum Erzeugen eines codierten Stereo-Signals nach Patentanspruch 10, wenn das Computer-Programm auf einem Rechner abläuft.
EP06707184A 2005-03-04 2006-02-22 Vorrichtung und verfahren zum erzeugen eines codierten stereo-signals eines audiostücks oder audiodatenstroms Active EP1854334B1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP09006142.5A EP2094031A3 (de) 2005-03-04 2006-02-22 Vorrichtung und Verfahren zum Erzeugen eines codierten Stereo-Signals eines Audiostücks oder Audiodatenstroms
PL06707184T PL1854334T3 (pl) 2005-03-04 2006-02-22 Urządzenie i sposób do generowania zakodowanego sygnału stereo fragmentu dźwiękowego lub strumienia danych audio

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102005010057A DE102005010057A1 (de) 2005-03-04 2005-03-04 Vorrichtung und Verfahren zum Erzeugen eines codierten Stereo-Signals eines Audiostücks oder Audiodatenstroms
PCT/EP2006/001622 WO2006094635A1 (de) 2005-03-04 2006-02-22 Vorrichtung und verfahren zum erzeugen eines codierten stereo-signals eines audiostücks oder audiodatenstroms

Related Child Applications (2)

Application Number Title Priority Date Filing Date
EP09006142.5A Division EP2094031A3 (de) 2005-03-04 2006-02-22 Vorrichtung und Verfahren zum Erzeugen eines codierten Stereo-Signals eines Audiostücks oder Audiodatenstroms
EP09006142.5 Division-Into 2009-05-05

Publications (2)

Publication Number Publication Date
EP1854334A1 EP1854334A1 (de) 2007-11-14
EP1854334B1 true EP1854334B1 (de) 2010-03-17

Family

ID=36649539

Family Applications (2)

Application Number Title Priority Date Filing Date
EP06707184A Active EP1854334B1 (de) 2005-03-04 2006-02-22 Vorrichtung und verfahren zum erzeugen eines codierten stereo-signals eines audiostücks oder audiodatenstroms
EP09006142.5A Ceased EP2094031A3 (de) 2005-03-04 2006-02-22 Vorrichtung und Verfahren zum Erzeugen eines codierten Stereo-Signals eines Audiostücks oder Audiodatenstroms

Family Applications After (1)

Application Number Title Priority Date Filing Date
EP09006142.5A Ceased EP2094031A3 (de) 2005-03-04 2006-02-22 Vorrichtung und Verfahren zum Erzeugen eines codierten Stereo-Signals eines Audiostücks oder Audiodatenstroms

Country Status (20)

Country Link
US (1) US8553895B2 (de)
EP (2) EP1854334B1 (de)
JP (1) JP4987736B2 (de)
KR (1) KR100928311B1 (de)
CN (1) CN101133680B (de)
AT (1) ATE461591T1 (de)
AU (1) AU2006222285B2 (de)
BR (1) BRPI0608036B1 (de)
CA (1) CA2599969C (de)
DE (2) DE102005010057A1 (de)
ES (1) ES2340796T3 (de)
HK (1) HK1111855A1 (de)
IL (1) IL185452A (de)
MX (1) MX2007010636A (de)
MY (1) MY140741A (de)
NO (1) NO339958B1 (de)
PL (1) PL1854334T3 (de)
RU (1) RU2376726C2 (de)
TW (1) TWI322630B (de)
WO (1) WO2006094635A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2094031A3 (de) * 2005-03-04 2014-10-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen eines codierten Stereo-Signals eines Audiostücks oder Audiodatenstroms

Families Citing this family (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7876904B2 (en) * 2006-07-08 2011-01-25 Nokia Corporation Dynamic decoding of binaural audio signals
KR101499785B1 (ko) 2008-10-23 2015-03-09 삼성전자주식회사 모바일 디바이스를 위한 오디오 처리 장치 및 그 방법
EP2647005B1 (de) 2010-12-03 2017-08-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und verfahren zur geometrie-basierten räumlichen audio-kodierung
EP2705516B1 (de) * 2011-05-04 2016-07-06 Nokia Technologies Oy Kodierung von stereophonen signalen
FR2976759B1 (fr) * 2011-06-16 2013-08-09 Jean Luc Haurais Procede de traitement d'un signal audio pour une restitution amelioree.
JP6007474B2 (ja) * 2011-10-07 2016-10-12 ソニー株式会社 音声信号処理装置、音声信号処理方法、プログラムおよび記録媒体
EP2805528B1 (de) * 2012-01-17 2016-03-30 Gibson Innovations Belgium NV Mehrkanalige audiowiedergabe
US9602927B2 (en) * 2012-02-13 2017-03-21 Conexant Systems, Inc. Speaker and room virtualization using headphones
KR20140017338A (ko) * 2012-07-31 2014-02-11 인텔렉추얼디스커버리 주식회사 오디오 신호 처리 장치 및 방법
JP6160072B2 (ja) * 2012-12-06 2017-07-12 富士通株式会社 オーディオ信号符号化装置および方法、オーディオ信号伝送システムおよび方法、オーディオ信号復号装置
US9860663B2 (en) * 2013-01-15 2018-01-02 Koninklijke Philips N.V. Binaural audio processing
RU2656717C2 (ru) * 2013-01-17 2018-06-06 Конинклейке Филипс Н.В. Бинауральная аудиообработка
EP2757559A1 (de) 2013-01-22 2014-07-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zur Codierung räumlicher Audioobjekte mittels versteckter Objekte zur Signalmixmanipulierung
CN108810793B (zh) 2013-04-19 2020-12-15 韩国电子通信研究院 多信道音频信号处理装置及方法
CN108806704B (zh) 2013-04-19 2023-06-06 韩国电子通信研究院 多信道音频信号处理装置及方法
US9412385B2 (en) * 2013-05-28 2016-08-09 Qualcomm Incorporated Performing spatial masking with respect to spherical harmonic coefficients
US9319819B2 (en) * 2013-07-25 2016-04-19 Etri Binaural rendering method and apparatus for decoding multi channel audio
TWI713018B (zh) 2013-09-12 2020-12-11 瑞典商杜比國際公司 多聲道音訊系統中之解碼方法、解碼裝置、包含用於執行解碼方法的指令之非暫態電腦可讀取的媒體之電腦程式產品、包含解碼裝置的音訊系統
JP6479786B2 (ja) 2013-10-21 2019-03-06 ドルビー・インターナショナル・アーベー オーディオ信号のパラメトリック再構成
ES2922373T3 (es) * 2015-03-03 2022-09-14 Dolby Laboratories Licensing Corp Realce de señales de audio espacial por decorrelación modulada
EP3067885A1 (de) * 2015-03-09 2016-09-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und verfahren zur verschlüsselung oder entschlüsselung eines mehrkanalsignals
JP6797187B2 (ja) 2015-08-25 2020-12-09 ドルビー ラボラトリーズ ライセンシング コーポレイション オーディオ・デコーダおよびデコード方法
TWI577194B (zh) * 2015-10-22 2017-04-01 山衛科技股份有限公司 環境音源辨識系統及其環境音源辨識之方法
EP3208800A1 (de) * 2016-02-17 2017-08-23 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und verfahren zur stereoablage bei mehrkanaliger codierung
US10187740B2 (en) * 2016-09-23 2019-01-22 Apple Inc. Producing headphone driver signals in a digital audio signal processing binaural rendering environment
US11523239B2 (en) 2019-07-22 2022-12-06 Hisense Visual Technology Co., Ltd. Display apparatus and method for processing audio
CN112261545A (zh) * 2019-07-22 2021-01-22 海信视像科技股份有限公司 显示装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1768451A1 (de) * 2004-06-14 2007-03-28 Matsushita Electric Industrial Co., Ltd. Akustische signalcodierungseinrichtung und akustische signaldecodierungseinrichtung

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US602349A (en) * 1898-04-12 Abrading mechanism
US5632005A (en) 1991-01-08 1997-05-20 Ray Milton Dolby Encoder/decoder for multidimensional sound fields
JPH04240896A (ja) * 1991-01-25 1992-08-28 Fujitsu Ten Ltd 音場制御装置
FR2688371B1 (fr) * 1992-03-03 1997-05-23 France Telecom Procede et systeme de spatialisation artificielle de signaux audio-numeriques.
US5703999A (en) * 1992-05-25 1997-12-30 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Process for reducing data in the transmission and/or storage of digital signals from several interdependent channels
EP1304797A3 (de) 1992-07-07 2007-11-28 Dolby Laboratories Licensing Corporation Digitales Filter mit hoher genauigkeit und effizienz
DE4236989C2 (de) * 1992-11-02 1994-11-17 Fraunhofer Ges Forschung Verfahren zur Übertragung und/oder Speicherung digitaler Signale mehrerer Kanäle
JPH06269097A (ja) * 1993-03-11 1994-09-22 Sony Corp 音響装置
US5488665A (en) 1993-11-23 1996-01-30 At&T Corp. Multi-channel perceptual audio compression system with encoding mode switching among matrixed channels
JP3404837B2 (ja) 1993-12-07 2003-05-12 ソニー株式会社 多層符号化装置
US5659619A (en) * 1994-05-11 1997-08-19 Aureal Semiconductor, Inc. Three-dimensional virtual audio display employing reduced complexity imaging filters
WO2004103023A1 (ja) * 1995-09-26 2004-11-25 Ikuichiro Kinoshita 仮想音像定位用伝達関数表作成方法、その伝達関数表を記録した記憶媒体及びそれを用いた音響信号編集方法
US5956674A (en) * 1995-12-01 1999-09-21 Digital Theater Systems, Inc. Multi-channel predictive subband audio coder using psychoacoustic adaptive bit allocation in frequency, time and over the multiple channels
US5742689A (en) * 1996-01-04 1998-04-21 Virtual Listening Systems, Inc. Method and device for processing a multichannel signal for use with a headphone
US5812971A (en) * 1996-03-22 1998-09-22 Lucent Technologies Inc. Enhanced joint stereo coding method using temporal envelope shaping
CN1204692C (zh) * 1996-04-10 2005-06-01 皇家菲利浦电子有限公司 编码若干信息信号的编码装置
WO1999014983A1 (en) 1997-09-16 1999-03-25 Lake Dsp Pty. Limited Utilisation of filtering effects in stereo headphone devices to enhance spatialization of source around a listener
CA2325482C (en) 1998-03-25 2009-12-15 Lake Technology Limited Audio signal processing method and apparatus
AUPP271598A0 (en) * 1998-03-31 1998-04-23 Lake Dsp Pty Limited Headtracked processing for headtracked playback of audio signals
CN1065400C (zh) 1998-09-01 2001-05-02 国家科学技术委员会高技术研究发展中心 兼容ac-3和mpeg-2的音频编解码器
US6751177B1 (en) * 1998-09-02 2004-06-15 Matsushita Electric Industrial Co., Ltd. Signal processor
DE19932062A1 (de) 1999-07-12 2001-01-18 Bosch Gmbh Robert Verfahren zur Aufbereitung von quellcodierten Audiodaten sowie Sender und Empfänger hierzu
JP2001100792A (ja) * 1999-09-28 2001-04-13 Sanyo Electric Co Ltd 符号化方法、符号化装置およびそれを備える通信システム
JP3335605B2 (ja) * 2000-03-13 2002-10-21 日本電信電話株式会社 ステレオ信号符号化方法
JP3616307B2 (ja) * 2000-05-22 2005-02-02 日本電信電話株式会社 音声・楽音信号符号化方法及びこの方法を実行するプログラムを記録した記録媒体
JP2002191099A (ja) * 2000-09-26 2002-07-05 Matsushita Electric Ind Co Ltd 信号処理装置
JP3228474B2 (ja) * 2001-01-18 2001-11-12 日本ビクター株式会社 音声符号化装置及び音声復号化方法
JP2002262385A (ja) * 2001-02-27 2002-09-13 Victor Co Of Japan Ltd 音像定位信号の生成方法、及び音像定位信号生成装置
US7116787B2 (en) 2001-05-04 2006-10-03 Agere Systems Inc. Perceptual synthesis of auditory scenes
US20030035553A1 (en) 2001-08-10 2003-02-20 Frank Baumgarte Backwards-compatible perceptual coding of spatial cues
US7006636B2 (en) 2002-05-24 2006-02-28 Agere Systems Inc. Coherence-based audio coding and synthesis
JP2003009296A (ja) * 2001-06-22 2003-01-10 Matsushita Electric Ind Co Ltd 音響処理装置および音響処理方法
AU2003209585A1 (en) * 2002-04-05 2003-10-20 Koninklijke Philips Electronics N.V. Signal processing
CN1647156B (zh) * 2002-04-22 2010-05-26 皇家飞利浦电子股份有限公司 参数编码方法、参数编码器、用于提供音频信号的设备、解码方法、解码器、用于提供解码后的多声道音频信号的设备
KR100522593B1 (ko) 2002-07-08 2005-10-19 삼성전자주식회사 다채널 입체음향 사운드 생성방법 및 장치
DE60317203T2 (de) * 2002-07-12 2008-08-07 Koninklijke Philips Electronics N.V. Audio-kodierung
KR20040027015A (ko) * 2002-09-27 2004-04-01 (주)엑스파미디어 스트리밍시 오디오의 대역폭을 줄이기 위하여 몰입형오디오를 이용한 새로운 다운믹싱 기법
JP4084990B2 (ja) * 2002-11-19 2008-04-30 株式会社ケンウッド エンコード装置、デコード装置、エンコード方法およびデコード方法
JP4369140B2 (ja) 2003-02-17 2009-11-18 パナソニック株式会社 オーディオ高能率符号化装置、オーディオ高能率符号化方法、オーディオ高能率符号化プログラム及びその記録媒体
FR2851879A1 (fr) * 2003-02-27 2004-09-03 France Telecom Procede de traitement de donnees sonores compressees, pour spatialisation.
JP2004309921A (ja) * 2003-04-09 2004-11-04 Sony Corp 符号化装置、符号化方法及びプログラム
US7949141B2 (en) * 2003-11-12 2011-05-24 Dolby Laboratories Licensing Corporation Processing audio signals with head related transfer function filters and a reverberator
US7394903B2 (en) * 2004-01-20 2008-07-01 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Apparatus and method for constructing a multi-channel output signal or for generating a downmix signal
US20050276430A1 (en) * 2004-05-28 2005-12-15 Microsoft Corporation Fast headphone virtualization
US20050273324A1 (en) * 2004-06-08 2005-12-08 Expamedia, Inc. System for providing audio data and providing method thereof
DE102005010057A1 (de) * 2005-03-04 2006-09-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen eines codierten Stereo-Signals eines Audiostücks oder Audiodatenstroms

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1768451A1 (de) * 2004-06-14 2007-03-28 Matsushita Electric Industrial Co., Ltd. Akustische signalcodierungseinrichtung und akustische signaldecodierungseinrichtung

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2094031A3 (de) * 2005-03-04 2014-10-01 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen eines codierten Stereo-Signals eines Audiostücks oder Audiodatenstroms

Also Published As

Publication number Publication date
CA2599969C (en) 2012-10-02
DE102005010057A1 (de) 2006-09-07
TWI322630B (en) 2010-03-21
WO2006094635A1 (de) 2006-09-14
IL185452A0 (en) 2008-01-06
PL1854334T3 (pl) 2010-09-30
US8553895B2 (en) 2013-10-08
KR100928311B1 (ko) 2009-11-25
IL185452A (en) 2011-07-31
MY140741A (en) 2010-01-15
ATE461591T1 (de) 2010-04-15
JP2008532395A (ja) 2008-08-14
CN101133680B (zh) 2012-08-08
ES2340796T3 (es) 2010-06-09
RU2007136792A (ru) 2009-04-10
KR20070100838A (ko) 2007-10-11
JP4987736B2 (ja) 2012-07-25
AU2006222285B2 (en) 2009-01-08
NO339958B1 (no) 2017-02-20
TW200701823A (en) 2007-01-01
MX2007010636A (es) 2007-10-10
CN101133680A (zh) 2008-02-27
AU2006222285A1 (en) 2006-09-14
EP2094031A3 (de) 2014-10-01
US20070297616A1 (en) 2007-12-27
DE502006006444D1 (de) 2010-04-29
EP2094031A2 (de) 2009-08-26
HK1111855A1 (en) 2008-08-15
CA2599969A1 (en) 2006-09-14
NO20075004L (no) 2007-10-03
EP1854334A1 (de) 2007-11-14
BRPI0608036B1 (pt) 2019-05-07
BRPI0608036A2 (pt) 2009-11-03
RU2376726C2 (ru) 2009-12-20

Similar Documents

Publication Publication Date Title
EP1854334B1 (de) Vorrichtung und verfahren zum erzeugen eines codierten stereo-signals eines audiostücks oder audiodatenstroms
DE602004004168T2 (de) Kompatible mehrkanal-codierung/-decodierung
DE602006000239T2 (de) Energieabhängige quantisierung für effiziente kodierung räumlicher audioparameter
DE602005006385T2 (de) Vorrichtung und verfahren zum konstruieren eines mehrkanaligen ausgangssignals oder zum erzeugen eines downmix-signals
EP1687809B1 (de) Vorrichtung und verfahren zur wiederherstellung eines multikanal-audiosignals und zum erzeugen eines parameterdatensatzes hierfür
DE102006050068B4 (de) Vorrichtung und Verfahren zum Erzeugen eines Umgebungssignals aus einem Audiosignal, Vorrichtung und Verfahren zum Ableiten eines Mehrkanal-Audiosignals aus einem Audiosignal und Computerprogramm
EP1763870B1 (de) Erzeugung eines codierten multikanalsignals und decodierung eines codierten multikanalsignals
EP1774515B1 (de) Vorrichtung und verfahren zum erzeugen eines mehrkanaligen ausgangssignals
EP1999999B1 (de) Erzeugung räumlicher heruntermischungen aus parametrischen darstellungen mehrkanaliger signale
DE602005002942T2 (de) Verfahren zur darstellung von mehrkanal-audiosignalen
DE69633633T2 (de) Mehrkanaliger prädiktiver subband-kodierer mit adaptiver, psychoakustischer bitzuweisung
EP1829026B1 (de) Kompakte nebeninformationen für die parametrische codierung von räumlichem audio
DE602005006424T2 (de) Stereokompatible mehrkanal-audiokodierung
EP1803117B1 (de) Individuelle kanaltemporäre enveloppenformung für binaurale hinweiscodierungsverfahren und dergleichen
DE102013223201B3 (de) Verfahren und Vorrichtung zum Komprimieren und Dekomprimieren von Schallfelddaten eines Gebietes
WO2007118533A1 (de) Vorrichtung und verfahren zum erzeugen eines umgebungssignals
WO2014072513A1 (de) Nichtlineare inverse kodierung von multikanal-signalen
DE102020210917B4 (de) Verbesserter M/S-Stereo-Codierer und -Decodierer
EP1719128A1 (de) Vorrichtung und verfahren zum beschreiben einer audio-cd und audio-cd

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20070809

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU LV MC NL PL PT RO SE SI SK TR

DAX Request for extension of the european patent (deleted)
17Q First examination report despatched

Effective date: 20081103

GRAP Despatch of communication of intention to grant a patent

Free format text: ORIGINAL CODE: EPIDOSNIGR1

GRAS Grant fee paid

Free format text: ORIGINAL CODE: EPIDOSNIGR3

GRAA (expected) grant

Free format text: ORIGINAL CODE: 0009210

AK Designated contracting states

Kind code of ref document: B1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LI LT LU LV MC NL PL PT RO SE SI SK TR

REG Reference to a national code

Ref country code: GB

Ref legal event code: FG4D

Free format text: NOT ENGLISH

REG Reference to a national code

Ref country code: CH

Ref legal event code: EP

REG Reference to a national code

Ref country code: IE

Ref legal event code: FG4D

REF Corresponds to:

Ref document number: 502006006444

Country of ref document: DE

Date of ref document: 20100429

Kind code of ref document: P

REG Reference to a national code

Ref country code: NL

Ref legal event code: T3

Ref country code: ES

Ref legal event code: FG2A

Ref document number: 2340796

Country of ref document: ES

Kind code of ref document: T3

REG Reference to a national code

Ref country code: SE

Ref legal event code: TRGR

REG Reference to a national code

Ref country code: GR

Ref legal event code: EP

Ref document number: 20100401411

Country of ref document: GR

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20100317

LTIE Lt: invalidation of european patent or patent extension

Effective date: 20100317

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LV

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20100317

Ref country code: FI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20100317

Ref country code: SI

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20100317

REG Reference to a national code

Ref country code: PL

Ref legal event code: T3

REG Reference to a national code

Ref country code: IE

Ref legal event code: FD4D

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: RO

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20100317

Ref country code: EE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20100317

Ref country code: CY

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20100317

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: SK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20100317

Ref country code: BG

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20100617

Ref country code: IS

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20100717

Ref country code: CZ

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20100317

PLBE No opposition filed within time limit

Free format text: ORIGINAL CODE: 0009261

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: DK

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20100317

Ref country code: PT

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20100719

Ref country code: IE

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20100317

26N No opposition filed

Effective date: 20101220

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: MC

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20110228

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: LU

Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

Effective date: 20110222

PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

Ref country code: HU

Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

Effective date: 20100317

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 11

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 12

REG Reference to a national code

Ref country code: FR

Ref legal event code: PLFP

Year of fee payment: 13

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: GR

Payment date: 20240219

Year of fee payment: 19

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: NL

Payment date: 20240220

Year of fee payment: 19

Ref country code: ES

Payment date: 20240319

Year of fee payment: 19

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: AT

Payment date: 20240216

Year of fee payment: 19

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: DE

Payment date: 20240216

Year of fee payment: 19

Ref country code: GB

Payment date: 20240222

Year of fee payment: 19

Ref country code: CH

Payment date: 20240301

Year of fee payment: 19

PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

Ref country code: TR

Payment date: 20240209

Year of fee payment: 19

Ref country code: SE

Payment date: 20240221

Year of fee payment: 19

Ref country code: PL

Payment date: 20240212

Year of fee payment: 19

Ref country code: IT

Payment date: 20240229

Year of fee payment: 19

Ref country code: FR

Payment date: 20240222

Year of fee payment: 19

Ref country code: BE

Payment date: 20240219

Year of fee payment: 19