RU2630390C2 - Устройство и способ для маскирования ошибок при стандартизированном кодировании речи и аудио с низкой задержкой (usac) - Google Patents
Устройство и способ для маскирования ошибок при стандартизированном кодировании речи и аудио с низкой задержкой (usac) Download PDFInfo
- Publication number
- RU2630390C2 RU2630390C2 RU2013142135A RU2013142135A RU2630390C2 RU 2630390 C2 RU2630390 C2 RU 2630390C2 RU 2013142135 A RU2013142135 A RU 2013142135A RU 2013142135 A RU2013142135 A RU 2013142135A RU 2630390 C2 RU2630390 C2 RU 2630390C2
- Authority
- RU
- Russia
- Prior art keywords
- values
- spectral
- frame
- filter
- audio
- Prior art date
Links
- 230000000873 masking effect Effects 0.000 title claims abstract description 73
- 238000000034 method Methods 0.000 title claims description 28
- 230000003595 spectral effect Effects 0.000 claims abstract description 275
- 230000005236 sound signal Effects 0.000 claims abstract description 62
- 238000001914 filtration Methods 0.000 claims description 29
- 230000007704 transition Effects 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 11
- 230000002123 temporal effect Effects 0.000 claims description 11
- 230000015572 biosynthetic process Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 2
- 239000000126 substance Substances 0.000 abstract 1
- 238000005516 engineering process Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000003044 adaptive effect Effects 0.000 description 5
- 238000012360 testing method Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013016 damping Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000001052 transient effect Effects 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000005284 excitation Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/028—Noise substitution, i.e. substituting non-tonal spectral components by noisy source
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/10—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/022—Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
- G10L19/025—Detection of transients or attacks for time/frequency resolution switching
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10K—SOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
- G10K11/00—Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
- G10K11/16—Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/005—Correction of errors induced by the transmission channel, if related to the coding algorithm
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/012—Comfort noise or silence coding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/0212—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/022—Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
- G10L19/03—Spectral prediction for preventing pre-echo; Temporary noise shaping [TNS], e.g. in MPEG2 or MPEG4
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/06—Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
- G10L19/07—Line spectrum pair [LSP] vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/10—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
- G10L19/107—Sparse pulse excitation, e.g. by using algebraic codebook
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/12—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/12—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
- G10L19/13—Residual excited linear prediction [RELP]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
- G10L19/22—Mode decision, i.e. based on audio signal content versus external parameters
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/06—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being correlation coefficients
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/78—Detection of presence or absence of voice signals
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/26—Pre-filtering or post-filtering
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Quality & Reliability (AREA)
- Algebra (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Mathematical Physics (AREA)
- Pure & Applied Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
- Detection And Prevention Of Errors In Transmission (AREA)
Abstract
Изобретение относится к средствам для маскирования ошибок при кодировании речи с низкой задержкой. Технический результат заключается в обеспечении возможности маскирования ошибок для кадров аудиосигнала без возникновения искусственных артефактов. Устройство для формирования спектральных замещающих значений содержит буферный блок для сохранения предыдущих спектральных значений, связанных с ранее принимаемым безошибочным аудиокадром. Кроме того, устройство содержит формирователь кадров маскирования для формирования спектральных замещающих значений, когда текущий аудиокадр не принят или является ошибочным. Ранее принимаемый безошибочный аудиокадр содержит информацию фильтра, причем информация фильтра имеет ассоциированное значение стабильности фильтра, указывающее стабильность прогнозного фильтра. Формирователь кадров маскирования выполнен с возможностью формировать спектральные замещающие значения на основе предыдущих спектральных значений и на основе значения стабильности фильтра. 6 н. и 10 з.п. ф-лы, 12 ил.
Description
Изобретение относится к обработке аудиосигналов, в частности к устройству и способу для маскирования ошибок при стандартизированном кодировании речи и аудио с низкой задержкой (LD-USAC).
Обработка аудиосигналов совершенствуется во множестве аспектов и становится все более и более важной. При обработке аудиосигналов стандартизированное кодирование речи и аудио с низкой задержкой нацелено на предоставление технологий кодирования, подходящих для речи, аудио и любого сочетания речи и аудио. Кроме того, LD-USAC нацелено на обеспечение высокого качества для кодированных аудиосигналов. По сравнению с USAC (стандартизированным кодированием речи и аудио) уменьшается задержка в LD-USAC.
При кодировании аудиоданных LD-USAC-кодер анализирует аудиосигнал, который должен кодироваться. LD-USAC-кодер кодирует аудиосигнал посредством кодирования коэффициентов линейной прогнозирующей фильтрации прогнозного фильтра. В зависимости от аудиоданных, которые должны быть кодированы посредством конкретного аудиокадра, LD-USAC-кодер определяет то, используется или нет ACELP (усовершенствованное линейное прогнозирование с возбуждением по коду) для кодирования, либо то, должны аудиоданные быть кодированы или нет с использованием TCX (возбуждения по кодированию с преобразованием). Тогда как ACELP использует коэффициенты LP-фильтрации (коэффициенты линейной прогнозирующей фильтрации), индексы адаптивных таблиц кодирования и индексы алгебраических таблиц кодирования и усиления адаптивных и алгебраических таблиц кодирования, TCX использует коэффициенты LP-фильтрации, энергетические параметры и индексы квантования, связанные с модифицированным дискретным косинусным преобразованием (MDCT).
На стороне декодера LD-USAC-декодер определяет то, использовано ACELP или TCX для того, чтобы кодировать аудиоданные кадра текущего аудиосигнала. Декодер затем декодирует кадр аудиосигнала соответствующим образом.
Время от времени передача данных завершается неудачно. Например, кадр аудиосигнала, передаваемый посредством отправляющего устройства, поступает с ошибками в приемное устройство либо вообще не поступает, либо кадр поступает поздно.
В этих случаях, может требоваться маскирование ошибок для того, чтобы обеспечивать, что пропущенные или ошибочные аудиоданные могут быть заменены. Это является, в частности, истинным для приложений, имеющих требования для работы в реальном времени, поскольку запрос повторной передачи ошибочного или пропущенного кадра может нарушать требования по низкой задержке.
Тем не менее, существующие технологии маскирования, используемые для других аудиоприложений, зачастую создают искусственный звук, вызываемый посредством синтетических артефактов.
Следовательно, цель настоящего изобретения заключается в том, чтобы предоставлять усовершенствованные принципы для маскирования ошибок для кадра аудиосигнала. Цель настоящего изобретения достигается посредством устройства, посредством способа и посредством компьютерной программы.
Предоставляется устройство для формирования спектральных замещающих значений для аудиосигнала. Устройство содержит буферный блок для сохранения предыдущих спектральных значений, связанных с ранее принимаемым безошибочным аудиокадром. Кроме того, устройство содержит формирователь кадров маскирования для формирования спектральных замещающих значений, когда текущий аудиокадр не принят или является ошибочным. Ранее принимаемый безошибочный аудиокадр содержит информацию фильтра, причем информация фильтра имеет ассоциированное значение стабильности фильтра, указывающее стабильность прогнозного фильтра. Формирователь кадров маскирования выполнен с возможностью формировать спектральные замещающие значения на основе предыдущих спектральных значений и на основе значения стабильности фильтра.
Настоящее изобретение основано на том факте, что, в то время как предыдущие спектральные значения ранее принимаемого безошибочного кадра могут использоваться для маскирования ошибок, затухание должно осуществляться для этих значений, и затухание должно зависеть от стабильности сигнала. Чем менее стабильным является сигнал, тем быстрее должно осуществляться затухание.
В варианте осуществления, формирователь кадров маскирования может быть выполнен с возможностью формировать спектральные замещающие значения посредством произвольной смены знака предыдущих спектральных значений.
Согласно дополнительному варианту осуществления, формирователь кадров маскирования может быть выполнен с возможностью формировать спектральные замещающие значения посредством умножения каждого из предыдущих спектральных значений на первый коэффициент усиления, когда значение стабильности фильтра имеет первое значение, и посредством умножения каждого из предыдущих спектральных значений на второй коэффициент усиления, меньший первого коэффициента усиления, когда значение стабильности фильтра имеет второе значение, меньшее первого значения.
В другом варианте осуществления, формирователь кадров маскирования может быть выполнен с возможностью формировать спектральные замещающие значения на основе значения стабильности фильтра, при этом ранее принимаемый безошибочный аудиокадр содержит первые коэффициенты прогнозирующей фильтрации прогнозного фильтра, при этом предшествующий кадр относительно ранее принимаемого безошибочного аудиокадра содержит вторые коэффициенты прогнозирующей фильтрации, и при этом значение стабильности фильтра зависит от первых коэффициентов прогнозирующей фильтрации и от вторых коэффициентов прогнозирующей фильтрации.
Согласно варианту осуществления, формирователь кадров маскирования может быть выполнен с возможностью определять значение стабильности фильтра на основе первых коэффициентов прогнозирующей фильтрации ранее принимаемого безошибочного аудиокадра и на основе вторых коэффициентов прогнозирующей фильтрации предшествующего кадра относительно ранее принимаемого безошибочного аудиокадра.
В другом варианте осуществления, формирователь кадров маскирования может быть выполнен с возможностью формировать спектральные замещающие значения на основе значения стабильности фильтра, при этом значение стабильности фильтра зависит от показателя расстояния, и при этом показатель расстояния задается посредством формулы:
где u+1 указывает общее число первых коэффициентов прогнозирующей фильтрации ранее принимаемого безошибочного аудиокадра, и где u+1 также указывает общее число вторых коэффициентов прогнозирующей фильтрации предшествующего кадра относительно ранее принимаемого безошибочного аудиокадра, где указывает i-й коэффициент фильтрации из первых коэффициентов прогнозирующей фильтрации, и где указывает i-й коэффициент фильтрации вторых коэффициентов прогнозирующей фильтрации.
Согласно варианту осуществления, формирователь кадров маскирования может быть выполнен с возможностью формировать спектральные замещающие значения дополнительно на основе информации класса кадров, связанной с ранее принимаемым безошибочным аудиокадром. Например, информация класса кадров указывает, что ранее принимаемый безошибочный аудиокадр классифицируется как "искусственное вступление", "вступление", "вокализованный переход", "невокализованный переход", "невокализованный" или "вокализованный".
В другом варианте осуществления, формирователь кадров маскирования может быть выполнен с возможностью формировать спектральные замещающие значения дополнительно на основе числа последовательных кадров, которые не поступают в приемное устройство или которые являются ошибочными с момента, когда последний безошибочный аудиокадр поступает в приемное устройство, при этом другие безошибочные аудиокадры не поступают в приемное устройство с момента, когда последний безошибочный аудиокадр поступает в приемное устройство.
Согласно другому варианту осуществления, формирователь кадров маскирования может быть выполнен с возможностью вычислять коэффициент затухания как на основе значения стабильности фильтра, так и на основе числа последовательных кадров, которые не поступают в приемное устройство или которые являются ошибочными. Кроме того, формирователь кадров маскирования может быть выполнен с возможностью формировать спектральные замещающие значения посредством умножения коэффициента затухания, по меньшей мере, на некоторые предыдущие спектральные значения или, по меньшей мере, на некоторые значения из группы промежуточных значений, при этом каждое из промежуточных значений зависит, по меньшей мере, от одного из предыдущих спектральных значений.
В дополнительном варианте осуществления, формирователь кадров маскирования может быть выполнен с возможностью формировать спектральные замещающие значения на основе предыдущих спектральных значений, на основе значения стабильности фильтра, а также на основе усиления для прогнозирования временного формирования шума.
Согласно дополнительному варианту осуществления, предоставляется декодер аудиосигналов. Декодер аудиосигналов может содержать устройство для декодирования спектральных значений аудиосигналов и устройство для формирования спектральных замещающих значений согласно одному из вышеописанных вариантов осуществления. Устройство для декодирования спектральных значений аудиосигналов может быть выполнено с возможностью декодировать спектральные значения аудиосигнала на основе ранее принимаемого безошибочного аудиокадра. Кроме того, устройство для декодирования спектральных значений аудиосигналов может быть дополнительно выполнено с возможностью сохранять спектральные значения аудиосигнала в буферном блоке устройства для формирования спектральных замещающих значений. Устройство для формирования спектральных замещающих значений может быть выполнено с возможностью формировать спектральные замещающие значения на основе спектральных значений, сохраненных в буферном блоке, когда текущий аудиокадр не принят или является ошибочным.
Кроме того, предоставляется декодер аудиосигналов согласно другому варианту осуществления. Декодер аудиосигналов содержит блок декодирования для формирования первых промежуточных спектральных значений на основе принимаемого безошибочного аудиокадра, блок временного формирования шума для осуществления временного формирования шума для первых промежуточных спектральных значений, чтобы получать вторые промежуточные спектральные значения, блок вычисления усилений для прогнозирования для вычисления усиления для прогнозирования временного формирования шума в зависимости от первых промежуточных спектральных значений и в зависимости от вторых промежуточных спектральных значений, устройство согласно одному из вышеописанных вариантов осуществления для формирования спектральных замещающих значений, когда текущий аудиокадр не принят или является ошибочным, и блок выбора значений для сохранения первых промежуточных спектральных значений в буферном блоке устройства для формирования спектральных замещающих значений, если усиление для прогнозирования превышает или равно пороговому значению, или для сохранения вторых промежуточных спектральных значений в буферном блоке устройства для формирования спектральных замещающих значений, если усиление для прогнозирования меньше порогового значения.
Кроме того, предоставляется другой декодер аудиосигналов согласно другому варианту осуществления. Декодер аудиосигналов содержит первый модуль декодирования для формирования сформированных спектральных значений на основе принимаемого безошибочного аудиокадра, устройство для формирования спектральных замещающих значений согласно одному из вышеописанных вариантов осуществления, процессор для обработки сформированных спектральных значений посредством осуществления временного формирования шума, применения заполнения шумом и/или применения глобального усиления, чтобы получать спектральные аудиозначения декодированного аудиосигнала. Устройство для формирования спектральных замещающих значений может быть выполнено с возможностью формировать спектральные замещающие значения и подавать их в процессор, когда текущий кадр не принят или является ошибочным.
Предпочтительные варианты осуществления предоставляются в зависимых пунктах формулы изобретения.
Далее описываются предпочтительные варианты осуществления настоящего изобретения со ссылкой на чертежи, на которых:
фиг. 1 иллюстрирует устройство для получения спектральных замещающих значений для аудиосигнала согласно варианту осуществления,
фиг. 2 иллюстрирует устройство для получения спектральных замещающих значений для аудиосигнала согласно другому варианту осуществления,
фиг. 3A-3C иллюстрируют умножение коэффициента усиления и предыдущих спектральных значений согласно варианту осуществления,
фиг. 4A иллюстрирует повторение части сигнала, которая содержит вступление во временной области,
фиг. 4B иллюстрирует повторение стабильной части сигнала во временной области,
фиг. 5A-5B иллюстрируют примеры, в которых сформированные коэффициенты усиления применяются к спектральным значениям по фиг. 3A, согласно варианту осуществления,
фиг. 6 иллюстрирует декодер аудиосигналов согласно варианту осуществления,
фиг. 7 иллюстрирует декодер аудиосигналов согласно другому варианту осуществления, и
фиг. 8 иллюстрирует декодер аудиосигналов согласно дополнительному варианту осуществления.
Фиг. 1 иллюстрирует устройство 100 для формирования спектральных замещающих значений для аудиосигнала. Устройство 100 содержит буферный блок 110 для сохранения предыдущих спектральных значений, связанных с ранее принимаемым безошибочным аудиокадром. Кроме того, устройство 100 содержит формирователь 120 кадров маскирования для формирования спектральных замещающих значений, когда текущий аудиокадр не принят или является ошибочным. Ранее принимаемый безошибочный аудиокадр содержит информацию фильтра, причем информация фильтра имеет ассоциированное значение стабильности фильтра, указывающее стабильность прогнозного фильтра. Формирователь 120 кадров маскирования выполнен с возможностью формировать спектральные замещающие значения на основе предыдущих спектральных значений и на основе значения стабильности фильтра.
Ранее принимаемый безошибочный аудиокадр, например, может содержать предыдущие спектральные значения. Например, предыдущие спектральные значения могут содержаться в ранее принимаемом безошибочном аудиокадре в кодированной форме.
Альтернативно, предыдущие спектральные значения, например, могут быть значениями, которые, возможно, сформированы посредством модификации значений, содержащихся в ранее принимаемом безошибочном аудиокадре, например, спектральных значений аудиосигнала. Например, значения, содержащиеся в ранее принимаемом безошибочном аудиокадре, возможно, модифицированы посредством умножения каждого из них на коэффициент усиления, чтобы получать предыдущие спектральные значения.
Альтернативно, предыдущие спектральные значения, например, могут быть значениями, которые, возможно, сформированы на основе значений, содержащихся в ранее принимаемом безошибочном аудиокадре. Например, каждое из предыдущих спектральных значений, возможно, сформировано посредством использования, по меньшей мере, некоторых значений, содержащихся в ранее принимаемом безошибочном аудиокадре, так что каждое из предыдущих спектральных значений зависит, по меньшей мере, от некоторых значений, содержащихся в ранее принимаемом безошибочном аудиокадре. Например, значения, содержащиеся в ранее принимаемом безошибочном аудиокадре, возможно, использованы для того, чтобы формировать промежуточный сигнал. Например, спектральные значения сформированного промежуточного сигнала затем могут считаться предыдущими спектральными значениями, связанными с ранее принимаемым безошибочным аудиокадром.
Стрелка 105 указывает, что предыдущие спектральные значения сохраняются в буферном блоке 110.
Формирователь 120 кадров маскирования может формировать спектральные замещающие значения, когда текущий аудиокадр не принят вовремя или является ошибочным. Например, передающее устройство может передавать текущий аудиокадр в приемное устройство, в котором, например, может располагаться устройство 100 для получения спектральных замещающих значений. Тем не менее, текущий аудиокадр не поступает в приемное устройство, например, вследствие какого-либо типа ошибки при передаче. Альтернативно, передаваемый текущий аудиокадр принимается посредством приемного устройства, но, например, вследствие нарушений, например, в ходе передачи текущий аудиокадр является ошибочным. В этом или в других случаях, требуется формирователь 120 кадров маскирования для маскирования ошибок.
Для этого формирователь 120 кадров маскирования выполнен с возможностью формировать спектральные замещающие значения на основе, по меньшей мере, некоторых предыдущих спектральных значений, когда текущий аудиокадр не принят или является ошибочным. Согласно вариантам осуществления, предполагается, что ранее принимаемый безошибочный аудиокадр содержит информацию фильтра, причем информация фильтра имеет ассоциированное значение стабильности фильтра, указывающее стабильность прогнозного фильтра, заданного посредством информации фильтра. Например, аудиокадр может содержать коэффициенты прогнозирующей фильтрации, к примеру, коэффициенты линейной прогнозирующей фильтрации, в качестве информации фильтра.
Формирователь 120 кадров маскирования дополнительно выполнен с возможностью формировать спектральные замещающие значения на основе предыдущих спектральных значений и на основе значения стабильности фильтра.
Например, спектральные замещающие значения могут быть сформированы на основе предыдущих спектральных значений и на основе значения стабильности фильтра так, что каждое из предыдущих спектральных значений умножается на коэффициент усиления, при этом значение коэффициента усиления зависит от значения стабильности фильтра. Например, коэффициент усиления может быть меньшим во втором случае, чем в первом случае, когда значение стабильности фильтра во втором случае меньше, чем в первом случае.
Согласно другому варианту осуществления, спектральные замещающие значения могут быть сформированы на основе предыдущих спектральных значений и на основе значения стабильности фильтра. Промежуточные значения могут быть сформированы посредством модификации предыдущих спектральных значений, например, посредством произвольной смены знака предыдущих спектральных значений и посредством умножения каждого из промежуточных значений на коэффициент усиления, при этом значение коэффициента усиления зависит от значения стабильности фильтра. Например, коэффициент усиления может быть меньшим во втором случае, чем в первом случае, когда значение стабильности фильтра во втором случае меньше, чем в первом случае.
Согласно дополнительному варианту осуществления, предыдущие спектральные значения могут использоваться для того, чтобы формировать промежуточный сигнал, и синтезированный сигнал спектральной области может быть сформирован посредством применения линейного прогнозного фильтра к промежуточному сигналу. Затем каждое спектральное значение сформированного синтезированного сигнала может быть умножено на коэффициент усиления, при этом значение коэффициента усиления зависит от значения стабильности фильтра. Как описано выше, коэффициент усиления, например, может быть меньшим во втором случае, чем в первом случае, если значение стабильности фильтра во втором случае меньше, чем в первом случае.
Далее подробно поясняется конкретный вариант осуществления, проиллюстрированный на фиг. 2. Первый кадр 101 поступает на сторону приемного устройства, на которой может располагаться устройство 100 для получения спектральных замещающих значений. На стороне приемного устройства проверяется то, является аудиокадр безошибочным или нет. Например, безошибочный аудиокадр является аудиокадром, в котором все аудиоданные, содержащиеся в аудиокадре, являются безошибочными. С этой целью, на стороне приемного устройства может использоваться средство (не показано), которое определяет то, является принимаемый кадр безошибочным или нет. С этой целью, могут использоваться технологии распознавания ошибок предшествующего уровня техники, такие как средство, которое тестирует то, являются или нет принятые аудиоданные согласованными с принимаемым контрольным битом или принимаемой контрольной суммой. Альтернативно, средство с обнаружением ошибок может использовать контроль циклическим избыточным кодом (CRC), чтобы тестировать то, являются или нет принятые аудиоданные согласованными с принимаемым CRC-значением. Также может использоваться любая другая технология для тестирования того, является принимаемый аудиокадр безошибочным или нет.
Первый аудиокадр 101 содержит аудиоданные 102. Кроме того, первый аудиокадр содержит контрольные данные 103. Например, контрольные данные могут быть контрольным битом, контрольной суммой или CRC-значением, которое может использоваться на стороне приемного устройства для того, чтобы тестировать то, является принимаемый аудиокадр 101 безошибочным (безошибочным кадром) или нет.
Если определено, что аудиокадр 101 является безошибочным, то значения, связанные с безошибочным аудиокадром, например, с аудиоданными 102, должны быть сохранены в буферном блоке 110 в качестве "предыдущих спектральных значений". Эти значения, например, могут быть спектральными значениями аудиосигнала, кодированного в аудиокадре. Альтернативно, значения, которые сохраняются в буферном блоке, например, могут быть промежуточными значениями, получающимися в результате обработки и/или модификации кодированных значений, сохраненных в аудиокадре. Альтернативно, сигнал, например, синтезированный сигнал в спектральной области, может быть сформирован на основе кодированных значений аудиокадра, и спектральные значения сформированного сигнала могут быть сохранены в буферном блоке 110. Сохранение предыдущих спектральных значений в буферном блоке 110 указывается посредством стрелки 105.
Кроме того, аудиоданные 102 аудиокадра 101 используются на стороне приемного устройства для того, чтобы декодировать кодированный аудиосигнал (не показан). Часть аудиосигнала, который декодирован, затем может быть воспроизведена на стороне приемного устройства.
Далее, после обработки аудиокадра 101, сторона приемного устройства ожидает поступления следующего аудиокадра 111 (также содержащего аудиоданные 112 и контрольные данные 113) на сторону приемного устройства. Тем не менее, например, в то время как передается аудиокадр 111 (как показано в 115), происходит неожиданное событие. Это проиллюстрировано посредством 116. Например, соединение может быть нарушено, так что биты аудиокадра 111 могут быть непреднамеренно модифицированы в ходе передачи, или, к примеру, аудиокадр 111 может вообще не поступать на сторону приемного устройства.
В таком случае требуется маскирование. Когда, например, на стороне приемного устройства воспроизводится аудиосигнал, который формируется на основе принимаемого аудиокадра, должны использоваться технологии, которые скрывают пропущенный кадр. Например, принципы должны задавать то, что следует делать, когда текущий аудиокадр аудиосигнала, который требуется для воспроизведения, не поступает на сторону приемного устройства или является ошибочным.
Формирователь 120 кадров маскирования выполнен с возможностью предоставлять маскирование ошибок. На фиг. 2, в формирователь 120 кадров маскирования сообщается, что текущий кадр не принят или является ошибочным. На стороне приемного устройства может использоваться средство (не показано), чтобы указывать формирователю 120 кадров маскирования, что требуется маскирование (это показывается посредством пунктирной стрелки 117).
Чтобы осуществлять маскирование ошибок, формирователь 120 кадров маскирования может запрашивать некоторые или все предыдущие спектральные значения, например, предыдущие аудиозначения, связанные с ранее принимаемым безошибочным кадром 101, из буферного блока 110. Этот запрос проиллюстрирован посредством стрелки 118. Аналогично примеру по фиг. 2, ранее принимаемый безошибочный кадр, например, может быть последним принимаемым безошибочным кадром, к примеру, аудиокадром 101. Тем не менее, другой безошибочный кадр также может использоваться на стороне приемного устройства в качестве ранее принимаемого безошибочного кадра.
Формирователь кадров маскирования затем принимает (некоторые или все) предыдущие спектральные значения, связанные с ранее принимаемым безошибочным аудиокадром (например, аудиокадром 101), из буферного блока 110, как показано в 119. Например, в случае потерь множества кадров буфер обновляется полностью или частично. В варианте осуществления могут быть реализованы этапы, проиллюстрированные посредством стрелок 118 и 119, на которых формирователь 120 кадров маскирования загружает предыдущие спектральные значения из буферного блока 110.
Формирователь 120 кадров маскирования затем формирует спектральные замещающие значения на основе, по меньшей мере, некоторых предыдущих спектральных значений. В силу этого, слушатель не должен знать, что один или более аудиокадров пропущены, так что не нарушается звуковое возмущение, созданное посредством воспроизведения.
Простой способ достигать маскирования заключается в том, чтобы просто использовать значения, например, спектральные значения последнего безошибочного кадра в качестве спектральных замещающих значений для пропущенного или ошибочного текущего кадра.
Тем не менее, конкретные проблемы существуют, в частности, в случае вступлений, например, когда громкость звука внезапно существенно изменяется. Например, в случае всплеска шумов, посредством простого повторения предыдущих спектральных значений последнего кадра всплеск шумов также повторяется.
Напротив, если аудиосигнал является довольно стабильным, например, его громкость существенно не изменяется, или, например, его спектральные значения существенно не изменяются, то эффект искусственного формирования части текущего аудиосигнала на основе ранее принимаемых аудиоданных, такой как повторение части ранее принимаемого аудиосигнала, является менее раздражающим для слушателя.
Варианты осуществления основаны на этом факте. Формирователь 120 кадров маскирования формирует спектральные замещающие значения на основе, по меньшей мере, некоторых предыдущих спектральных значений и на основе значения стабильности фильтра, указывающего стабильность прогнозного фильтра, связанного с аудиосигналом. Таким образом, формирователь 120 кадров маскирования учитывает стабильность аудиосигнала, например, стабильность аудиосигнала, связанного с ранее принимаемым безошибочным кадром.
Для этого формирователь 120 кадров маскирования может изменять значение коэффициента усиления, который применяется к предыдущим спектральным значениям. Например, каждое из предыдущих спектральных значений умножается на коэффициент усиления. Это проиллюстрировано относительно фиг. 3A-3C.
На фиг. 3A, некоторые спектральные линии аудиосигнала, связанного с ранее принимаемым безошибочным кадром, проиллюстрированы до того, как применяется исходный коэффициент усиления. Например, исходный коэффициент усиления может быть коэффициентом усиления, который передается в аудиокадре. На стороне приемного устройства, если принимаемый кадр является безошибочным, декодер, например, может быть выполнен с возможностью умножать каждое из спектральных значений аудиосигнала на исходный коэффициент g усиления, чтобы получать модифицированный спектр. Это показано на фиг. 3B.
На фиг. 3B проиллюстрированы спектральные линии, которые получаются в результате умножения спектральных линий по фиг. 3A на исходный коэффициент усиления. Для простоты предполагается, что исходный коэффициент g усиления равен 2,0 (g=2,0). Фиг. 3A и 3B иллюстрируют сценарий, в котором маскирование не требуется.
На фиг. 3C предполагается сценарий, в котором текущий кадр не принят или является ошибочным. В таком случае должны быть сформированы замещающие векторы. Для этого предыдущие спектральные значения, связанные с ранее принимаемым безошибочным кадром, которые сохранены в буферном блоке, могут использоваться для формирования спектральных замещающих значений.
В примере по фиг. 3C предполагается, что спектральные замещающие значения формируются на основе принимаемых значений, но исходный коэффициент усиления модифицируется.
Другой, меньший, коэффициент усиления используется для того, чтобы формировать спектральные замещающие значения, чем коэффициент усиления, который используется для того, чтобы усиливать принятые значения в случае фиг. 3B. За счет этого достигается затухание.
Например, модифицированный коэффициент усиления, используемый в сценарии, проиллюстрированном посредством фиг. 3C, может составлять 75% от исходного коэффициента усиления, например, 0,75⋅2,0=1,5. Посредством умножения каждого из спектральных значений на (уменьшенный) модифицированный коэффициент усиления выполняется затухание, поскольку модифицированный коэффициент усиления, который используется для умножения каждого из спектральных значений, меньше исходного коэффициента усиления (коэффициента усиления), используемого для умножения спектральных значений в безошибочном случае.
Настоящее изобретение, в числе прочего, основано на том факте, что повторение значений ранее принимаемого безошибочного кадра воспринимается как более раздражающее, когда соответствующая часть аудиосигнала является нестабильной, т.е. в том случае, когда соответствующая часть аудиосигнала является стабильной. Это проиллюстрировано на фиг. 4A и 4B.
Например, если ранее принимаемый безошибочный кадр содержит вступление, то с большой вероятностью воспроизводится вступление. Фиг. 4A иллюстрирует часть аудиосигнала, при этом переходный процесс осуществляется в части аудиосигнала, ассоциированной с последним принимаемым безошибочным кадром. На фиг. 4A и 4B, абсцисса указывает время, ордината указывает значение амплитуды аудиосигнала.
Часть сигнала, указываемая посредством 410, связана с частью аудиосигнала, связанной с последним принимаемым безошибочным кадром. Пунктирная линия в области 420 указывает возможное продолжение кривой во временной области, если значения, связанные с ранее принимаемым безошибочным кадром, просто копируются и используются в качестве спектральных замещающих значений замещающего кадра. Как можно видеть, переходный процесс с большой вероятностью повторяется, что может восприниматься слушателем как раздражающее.
Напротив, фиг. 4B иллюстрирует пример, в котором сигнал является довольно стабильным. На фиг. 4B, проиллюстрирована часть аудиосигнала, связанная с последним принимаемым безошибочным кадром. В части сигнала по фиг. 4B, переходный процесс не осуществлен. Кроме того, абсцисса указывает время, ордината указывает амплитуду аудиосигнала. Область 430 связана с частью сигнала, ассоциированной с последним принимаемым безошибочным кадром. Пунктирная линия в области 440 указывает возможное продолжение кривой во временной области, если значения ранее принимаемого безошибочного кадра копируются и используются в качестве спектральных замещающих значений замещающего кадра. В таких случаях, когда аудиосигнал является довольно стабильным, повторение последней части сигнала оказывается более приемлемым для слушателя, чем в случае, если повторяется вступление, как проиллюстрировано на фиг. 4A.
Настоящее изобретение основано на том факте, что спектральные замещающие значения могут быть сформированы на основе ранее принимаемых значений предыдущего аудиокадра, но также должна рассматриваться и стабильность прогнозного фильтра в зависимости от стабильности части аудиосигнала. Для этого должно учитываться значение стабильности фильтра. Значение стабильности фильтра, например, может указывать стабильность прогнозного фильтра.
В LD-USAC, коэффициенты прогнозной фильтрации, например, коэффициенты линейной прогнозной фильтрации, могут быть определены на стороне кодера и могут быть переданы в приемное устройство в аудиокадре.
На стороне декодера декодер затем принимает коэффициенты прогнозирующей фильтрации, например, коэффициенты прогнозирующей фильтрации ранее принимаемого безошибочного кадра. Кроме того, декодер, возможно, уже принял коэффициенты прогнозирующей фильтрации предшествующего кадра относительно ранее принимаемого кадра и, возможно, например, сохранил эти коэффициенты прогнозирующей фильтрации. Предшествующий кадр относительно ранее принимаемого безошибочного кадра является кадром, который непосредственно предшествует ранее принимаемому безошибочному кадру. Формирователь кадров маскирования затем может определять значение стабильности фильтра на основе коэффициентов прогнозирующей фильтрации ранее принимаемого безошибочного кадра и на основе коэффициентов прогнозирующей фильтрации предшествующего кадра относительно ранее принимаемого безошибочного кадра.
Далее представлено определение значения стабильности фильтра согласно варианту осуществления, которое является, в частности, подходящим для LD-USAC. Рассматриваемое значение стабильности зависит от коэффициентов прогнозирующей фильтрации, например, 10 коэффициентов прогнозирующей фильтрации в случае узкой полосы частот или, например, 16 коэффициентов прогнозирующей фильтрации в случае широкой полосы частот, которые, возможно, переданы в ранее принимаемом безошибочном кадре.
Кроме того, также рассматриваются коэффициенты прогнозирующей фильтрации предшествующего кадра относительно ранее принимаемого безошибочного кадра, например, 10 дополнительных коэффициентов прогнозирующей фильтрации в случае узкой полосы частот (или, например, 16 дополнительных коэффициентов прогнозирующей фильтрации в случае широкой полосы частот).
Например, k-й прогнозный фильтр , возможно, вычислен на стороне кодера посредством вычисления автокорреляции, так что:
где s' является кодированным со взвешиванием речевым сигналом, например, речевым сигналом, который должен кодироваться после того, как окно кодирования применено для речевого сигнала; t может составлять, например, 383. Альтернативно, t может иметь другие значения, к примеру, 191 или 95.
В других вариантах осуществления, вместо вычисления автокорреляции альтернативно может использоваться алгоритм Левинсона-Дурбина, известный из предшествующего уровня техники; см., например, материал:
[3]: 3GPP. "Speech codec speech processing functions; Adaptive Multi-Rate – Wideband (AMR-WB) speech codec; Transcoding functions", 2009 год, V9.0.0, 3GPP TS 26.190.
Как уже указано, коэффициенты и прогнозирующей фильтрации, возможно, переданы в приемное устройство в ранее принимаемом безошибочном кадре и предшествующем элементе ранее принимаемого безошибочного кадра, соответственно.
На стороне декодера показатель расстояния на основе частоты спектральной линии (показатель LSF-расстояния) затем может быть вычислен с использованием формулы:
u может быть числом прогнозных фильтров в ранее принимаемом безошибочном кадре минус 1. Например, если ранее принимаемый безошибочный кадр имеет 10 коэффициентов прогнозирующей фильтрации, то, например, u=9. Число коэффициентов прогнозирующей фильтрации в ранее принимаемом безошибочном кадре типично является идентичным числу коэффициентов прогнозирующей фильтрации в предшествующем кадре относительно ранее принимаемого безошибочного кадра.
Значение стабильности затем может быть вычислено согласно следующей формуле:
v может быть целым числом. Например, v может быть 156250 в случае узкой полосы частот. В другом варианте осуществления, v может быть 400000 в случае широкой полосы частот.
Формирователь кадров маскирования может быть выполнен с возможностью формировать спектральные замещающие значения на основе предыдущих спектральных значений ранее принимаемого безошибочного кадра, когда текущий аудиокадр не принят или является ошибочным. Кроме того, формирователь кадров маскирования может быть выполнен с возможностью вычислять значение стабильности на основе коэффициентов прогнозирующей фильтрации ранее принимаемого безошибочного кадра, а также на основе коэффициентов прогнозирующей фильтрации ранее принимаемого безошибочного кадра, как описано выше.
В варианте осуществления, формирователь кадров маскирования может быть выполнен с возможностью использовать значение стабильности фильтра для того, чтобы формировать сформированный коэффициент усиления, например, посредством модификации исходного коэффициента усиления и применять сформированный коэффициент усиления к предыдущим спектральным значениям, связанным с аудиокадром, чтобы получать спектральные замещающие значения. В других вариантах осуществления, формирователь кадров маскирования выполнен с возможностью применять сформированный коэффициент усиления к значением, извлеченным из предыдущих спектральных значений.
Например, формирователь кадров маскирования может формировать модифицированный коэффициент усиления посредством умножения принимаемого коэффициента усиления на коэффициент затухания, при этом коэффициент затухания зависит от значения стабильности фильтра.
Допустим, например, что коэффициент усиления, принимаемый в кадре аудиосигнала, имеет, например, значение 2,0. Коэффициент усиления типично используется для умножения предыдущих спектральных значений, чтобы получать модифицированные спектральные значения. Чтобы применять затухание, формируется модифицированный коэффициент усиления, который зависит от значения стабильности в 0.
Например, если значение стабильности , то прогнозный фильтр считается очень стабильным. Коэффициент затухания затем может задаваться равным 0,85, если кадр, который должен быть восстановлен, является первым пропущенным кадром. Таким образом, модифицированный коэффициент усиления составляет 0,85⋅2,0=1,7. Каждое из принимаемых спектральных значений ранее принимаемого кадра затем умножается на модифицированный коэффициент усиления 1,7 вместо 2,0 (принимаемый коэффициент усиления), чтобы формировать спектральные замещающие значения.
Фиг. 5A иллюстрирует пример, в котором сформированный коэффициент усиления в 1,7 применяется к спектральным значениям по фиг. 3A.
Тем не менее, если, например, значение стабильности , то прогнозный фильтр считается очень нестабильным. Коэффициент затухания затем может задаваться равным 0,65, если кадр, который должен быть восстановлен, является первым пропущенным кадром. Таким образом, модифицированный коэффициент усиления составляет 0,65⋅2,0=1,3. Каждое из принимаемых спектральных значений ранее принимаемого кадра затем умножается на модифицированный коэффициент усиления 1,3 вместо 2,0 (принимаемый коэффициент усиления), чтобы формировать спектральные замещающие значения.
Фиг. 5B иллюстрирует пример, в котором сформированный коэффициент усиления 1,3 применяется к спектральным значениям по фиг. 3A. Поскольку коэффициент усиления в примере по фиг. 5B меньше, чем в примере по фиг. 5A, абсолютные величины на фиг. 5B также меньше, чем в примере по фиг. 5A.
Различные стратегии могут применяться в зависимости от значения , где может быть любым значением между 0 и 1.
Например, значение может быть интерпретировано как 1, так что коэффициент затухания имеет такое значение, как если составляет 1, например, коэффициент затухания равен 0,85. Значение может быть интерпретировано в качестве 0, так что коэффициент затухания имеет такое значение, как если составляет 0, например, коэффициент затухания равен 0,65.
Согласно другому варианту осуществления, альтернативно может быть интерполировано значение коэффициента затухания, если значение находится между 0 и 1. Например, при условии, что значение коэффициента затухания составляет 0,85, если равняется 1, и составляет 0,65, если равняется 0, коэффициент затухания может быть вычислен согласно формуле:
В другом варианте осуществления, формирователь кадров маскирования выполнен с возможностью формировать спектральные замещающие значения дополнительно на основе информации класса кадров, связанной с ранее принимаемым безошибочным кадром. Информация относительно класса может быть определена посредством кодера. Кодер затем может кодировать информацию класса кадров в аудиокадре. Декодер затем может декодировать информацию класса кадров при декодировании ранее принимаемого безошибочного кадра.
Альтернативно, декодер может самостоятельно определять информацию класса кадров посредством анализа аудиокадра.
Кроме того, декодер может быть выполнен с возможностью определять информацию класса кадров на основе информации из кодера и на основе анализа принимаемых аудиоданных, причем анализ осуществляется посредством самого декодера.
Класс кадров может, например, указывать то, классифицируется кадр как "искусственное вступление", "вступление", "вокализованный переход", "невокализованный переход", "невокализованный" и "вокализованный".
Например, "вступление" может указывать то, что ранее принимаемый аудиокадр содержит вступление. Например, "вокализованный" может указывать то, что ранее принимаемый аудиокадр содержит вокализованные данные. Например, "невокализованный" может указывать то, что ранее принимаемый аудиокадр содержит невокализованные данные. Например, "вокализованный переход" может указывать то, что ранее принимаемый аудиокадр содержит вокализованные данные, но при этом, по сравнению с предшествующим элементом относительно предыдущего принимаемого аудиокадра, основной тон изменен. Например, "искусственное вступление" может указывать то, что энергия ранее принимаемого аудиокадра повышена (в силу этого, например, создавая искусственное вступление). Например, "невокализованный переход" может указывать то, что ранее принимаемый аудиокадр содержит невокализованные данные, но при этом невокализованный звук должен быть изменен.
В зависимости от ранее принимаемого аудиокадра, значения стабильности в 9 и числа последовательных стертых кадров, усиление при ослаблении, к примеру, коэффициент затухания, например, может задаваться следующим образом:
Последний хороший принимаемый кадр | Число последовательных стертых кадров | Усиление при ослаблении (например, коэффициент затухания) |
Искусственное вступление | 0,6 | |
Вступление | ≤3 | |
Вступление | >3 | 0,5 |
Вокализованный переход | 0,4 | |
Невокализованный переход | >1 | 0,8 |
Невокализованный переход | =1 | |
Невокализованный | =2 | |
Невокализованный | >2 | |
Невокализованный | =1 | |
Вокализованный | =2 | |
Вокализованный | >2 |
Согласно варианту осуществления, формирователь кадров маскирования может формировать модифицированный коэффициент усиления посредством умножения принимаемого коэффициента усиления на коэффициент затухания, определенный на основе значения стабильности фильтра и класса кадров. Затем предыдущие спектральные значения, например, могут быть умножены на модифицированный коэффициент усиления, чтобы получать спектральные замещающие значения.
Корме того, формирователь кадров маскирования может быть выполнен с возможностью формировать спектральные замещающие значения дополнительно также на основе информации класса кадров.
Согласно варианту осуществления, формирователь кадров маскирования может быть выполнен с возможностью формировать спектральные замещающие значения дополнительно в зависимости от числа последовательных кадров, которые не поступают в приемное устройство или которые являются ошибочными.
В варианте осуществления, формирователь кадров маскирования может быть выполнен с возможностью вычислять коэффициент затухания на основе значения стабильности фильтра и на основе числа последовательных кадров, которые не поступают в приемное устройство или которые являются ошибочными.
Кроме того, формирователь кадров маскирования может быть выполнен с возможностью формировать спектральные замещающие значения посредством умножения коэффициента затухания, по меньшей мере, на некоторые предыдущие спектральные значения.
Альтернативно, формирователь кадров маскирования может быть выполнен с возможностью формировать спектральные замещающие значения посредством умножения коэффициента затухания, по меньшей мере, на некоторые значения из группы промежуточных значений. Каждое из промежуточных значений зависит, по меньшей мере, от одного из предыдущих спектральных значений. Например, группа промежуточных значений, возможно, сформирована посредством модификации предыдущих спектральных значений. Альтернативно, синтезированный сигнал в спектральной области, возможно, сформирован на основе предыдущих спектральных значений, и спектральные значения синтезированного сигнала могут формировать группу промежуточных значений.
В другом варианте осуществления, коэффициент затухания может быть умножен на исходный коэффициент усиления, чтобы получать сформированный коэффициент усиления. Сформированный коэффициент усиления затем умножается, по меньшей мере, на некоторые предыдущие спектральные значения или, по меньшей мере, на некоторые значения из группы промежуточных значений, упомянутых выше, чтобы получать спектральные замещающие значения.
Значение коэффициента затухания зависит от значения стабильности фильтра и от числа последовательных пропущенных или ошибочных кадров и, например, может иметь значения:
Значение стабильности фильтра | Число последовательных пропущенных/ошибочных кадров | Коэффициент затухания |
0 | 1 | 0,8 |
0 | 2 | 0,8⋅0,65=0,52 |
0 | 3 | 0,52⋅0,55=0,29 |
0 | 4 | 0,29⋅0,55=0,16 |
0 | 5 | 0,16⋅0,55=0,09 |
... | ... | ... |
Здесь "Число последовательных пропущенных/ошибочных кадров=1" указывает, что непосредственно предшествующий элемент относительно пропущенного/ошибочного кадра является безошибочным.
Как можно видеть в вышеприведенном примере, коэффициент затухания может быть обновлен каждый раз, когда кадр не поступает или является ошибочным на основе последнего коэффициента затухания. Например, если непосредственно предшествующий элемент относительно пропущенного/ошибочного кадра является безошибочным, то, в вышеприведенном примере, коэффициент затухания равен 0,8. Если последующий кадр также пропущен или является ошибочным, коэффициент затухания обновляется на основе предыдущего коэффициента затухания посредством умножения предыдущего коэффициента затухания на коэффициент обновления 0,65: коэффициент затухания=0,8⋅0,65=0,52 и т.д.
Некоторые или все предыдущие спектральные значения могут быть непосредственно умножены на коэффициент затухания.
Альтернативно, коэффициент затухания может быть умножен на исходный коэффициент усиления, чтобы получать сформированный коэффициент усиления. Сформированный коэффициент усиления затем может быть умножен на каждое (или некоторые) из предыдущих спектральных значений (или промежуточных значений, извлекаемых из предыдущих спектральных значений), чтобы получать спектральные замещающие значения.
Следует отметить, что коэффициент затухания также может зависеть от значения стабильности фильтра. Например, вышеуказанная таблица также может содержать задания для коэффициента затухания, если значение стабильности фильтра составляет 1,0, 0,5 или какое-либо другое значение, например:
Значение стабильности фильтра | Число последовательных пропущенных/ошибочных кадров | Коэффициент затухания |
1,0 | 1 | 1,0 |
1,0 | 2 | 1,0⋅0,85=0,85 |
1,0 | 3 | 0,85⋅0,75=0,64 |
1,0 | 4 | 0,64⋅0,75=0,48 |
1,0 | 5 | 0,48⋅0,75=0,36 |
... | ... | ... |
Значения коэффициента затухания для промежуточных значений стабильности фильтра могут аппроксимироваться.
В другом варианте осуществления, коэффициент затухания может быть определен посредством использования формулы, которая вычисляет коэффициент затухания на основе значения стабильности фильтра и на основе числа последовательных кадров, которые не поступают в приемное устройство или которые являются ошибочными.
Как описано выше, предыдущие спектральные значения, сохраненные в буферном блоке, могут быть спектральными значениями. Чтобы не допускать возникновения раздражающих артефактов, формирователь кадров маскирования, как пояснено выше, может формировать спектральные замещающие значения на основе значения стабильности фильтра.
Тем не менее, такая замена части сформированного сигнала при этом может иметь повторяющийся символ. Следовательно, согласно варианту осуществления, кроме того, предлагается модифицировать предыдущие спектральные значения, например спектральные значения ранее принимаемого кадра, посредством произвольной смены знака спектральных значений. Например, формирователь кадров маскирования определяет произвольно для каждого из предыдущих спектральных значений то, инвертируется или нет знак спектрального значения, например, умножается спектральное значение на -1 или нет. За счет этого уменьшается повторяющийся символ замененного кадра аудиосигнала относительно его предшествующего кадра.
Далее описывается маскирование в LD-USAC-декодере согласно варианту осуществления. В этом варианте осуществления, маскирование обрабатывает спектральные данные непосредственно перед тем, как LD-USAC-декодер осуществляет конечное частотно-временное преобразование.
В этом варианте осуществления, значения поступающего аудиокадра используются для того, чтобы декодировать кодированный аудиосигнал посредством формирования синтезированного сигнала в спектральной области. Для этого промежуточный сигнал в спектральной области формируется на основе значений поступающего аудиокадра. Заполнение шумом осуществляется для значений, квантованных до нуля.
Кодированные коэффициенты прогнозирующей фильтрации задают прогнозный фильтр, который затем применяется к промежуточному сигналу, чтобы формировать синтезированный сигнал, представляющий декодированный/восстановленный аудиосигнал в частотной области.
Фиг. 6 иллюстрирует декодер аудиосигналов согласно варианту осуществления. Декодер аудиосигналов содержит устройство 610 для декодирования спектральных значений аудиосигнала и устройство 620 для формирования спектральных замещающих значений согласно одному из вышеописанных вариантов осуществления.
Устройство 610 для декодирования спектральных значений аудиосигнала формирует спектральные значения декодированного аудиосигнала, как описано выше, когда поступает безошибочный аудиокадр.
В варианте осуществления по фиг. 6, спектральные значения синтезированного сигнала затем могут быть сохранены в буферном блоке устройства 620 для формирования спектральных замещающих значений. Эти спектральные значения декодированного аудиосигнала декодированы на основе принимаемого безошибочного аудиокадра и, таким образом, связаны с ранее принимаемым безошибочным аудиокадром.
Когда текущий кадр пропущен или является ошибочным, в устройство 620 для формирования спектральных замещающих значений сообщается, что требуются спектральные замещающие значения. Формирователь кадров маскирования устройства 620 для формирования спектральных замещающих значений затем формирует спектральные замещающие значения согласно одному из вышеописанных вариантов осуществления.
Например, спектральные значения из последнего хорошего кадра немного модифицируются посредством формирователя кадров маскирования посредством произвольной смены их знака. Затем затухание применяется к этим спектральным значениям. Затухание может зависеть от стабильности предыдущего прогнозного фильтра и от числа последовательных потерянных кадров. Сформированные спектральные замещающие значения затем используются в качестве спектральных замещающих значений для аудиосигнала, и после этого осуществляется частотно-временное преобразование для того, чтобы получать аудиосигнал временной области.
В LD-USAC, а также в USAC и MPEG-4 (MPEG – Экспертная группа по киноизображению), может использоваться временное формирование шума (TNS). Посредством временного формирования шума управляется точная временная структура шума. На стороне декодера операция фильтра применяется для спектральных данных на основе информации формирования шума. Дополнительные сведения относительно временного формирования шума можно найти, например, в работе:
[4]: ISO/IEC 14496-3:2005: Information technology – Coding of audio-visual objects –Part 3: Audio, 2005 год.
Варианты осуществления основаны на том факте, что в случае вступления/переходного процесса, TNS является высокоактивным. Таким образом, посредством определения того, является TNS высокоактивным или нет, можно оценивать то, присутствует или нет вступление/переходный процесс.
Согласно варианту осуществления, усиление для прогнозирования, которое имеет TNS, вычисляется на стороне приемного устройства. На стороне приемного устройства, сначала обрабатываются принятые спектральные значения принимаемого безошибочного аудиокадра для того, чтобы получать первые промежуточные спектральные значения ai. Затем осуществляется TNS, и за счет этого получаются вторые промежуточные спектральные значения bi. Первое значение E1 энергии вычисляется для первых промежуточных спектральных значений, а второе значение E2 энергии вычисляется для вторых промежуточных спектральных значений. Чтобы получать усиление для прогнозирования TNS, второе значение энергии может быть разделено на первое значение энергии.
(n – число рассматриваемых спектральных значений)
Согласно варианту осуществления, формирователь кадров маскирования выполнен с возможностью формировать спектральные замещающие значения на основе предыдущих спектральных значений, на основе значения стабильности фильтра, а также на основе усиления для прогнозирования временного формирования шума, когда временное формирование шума осуществляется для ранее принимаемого безошибочного кадра. Согласно другому варианту осуществления, формирователь кадров маскирования выполнен с возможностью формировать спектральные замещающие значения дополнительно на основе числа последовательных пропущенных или ошибочных кадров.
Чем выше усиление для прогнозирования, тем быстрее должно быть затухание. Например, рассмотрим значение стабильности фильтра в 0,5, и допустим, что усиление для прогнозирования является высоким, например, =6; в таком случае коэффициент затухания, может составлять, например, 0,65 (=быстрое затухание). Напротив, снова рассмотрим значение стабильности фильтра в 0,5, но допустим, что усиление для прогнозирования является низким, например, 1,5; в таком случае коэффициент затухания может составлять, например, 0,95 (=медленное затухание).
Усиление для прогнозирования TNS также может влиять на то, какие значения должны быть сохранены в буферном блоке устройства для формирования спектральных замещающих значений.
Если усиление для прогнозирования ниже определенного порогового значения (например, порогового значения =5,0), то спектральные значения после того, как примерено TNS, сохраняются в буферном блоке в качестве предыдущих спектральных значений. В случае пропущенного или ошибочного кадра спектральные замещающие значения формируются на основе этих предыдущих спектральных значений.
В противном случае, если усиление для прогнозирования превышает или равно пороговому значению, спектральные значения до того, как применено TNS, сохраняются в буферном блоке в качестве предыдущих спектральных значений. В случае пропущенного или ошибочного кадра спектральные замещающие значения формируются на основе этих предыдущих спектральных значений.
TNS не применяется в любом случае к этим предыдущим спектральным значениям.
Соответственно, фиг. 7 иллюстрирует декодер аудиосигналов согласно соответствующему варианту осуществления. Декодер аудиосигналов содержит блок 710 декодирования для формирования первых промежуточных спектральных значений на основе принимаемого безошибочного кадра. Кроме того, декодер аудиосигналов содержит блок 720 временного формирования шума для осуществления временного формирования шума для первых промежуточных спектральных значений, чтобы получать вторые промежуточные спектральные значения. Кроме того, декодер аудиосигналов содержит блок 730 вычисления усилений для прогнозирования для вычисления усиления для прогнозирования временного формирования шума в зависимости от первых промежуточных спектральных значений и вторых промежуточных спектральных значений. Кроме того, декодер аудиосигналов содержит устройство 740 согласно одному из вышеописанных вариантов осуществления для формирования спектральных замещающих значений, когда текущий аудиокадр не принят или является ошибочным. Кроме того, декодер аудиосигналов содержит блок 750 выбора значений для сохранения первых промежуточных спектральных значений в буферном блоке 745 устройства 740 для формирования спектральных замещающих значений, если усиление для прогнозирования превышает или равно пороговому значению, или для сохранения вторых промежуточных спектральных значений в буферном блоке 745 устройства 740 для формирования спектральных замещающих значений, если усиление для прогнозирования меньше порогового значения.
Пороговое значение, например, может быть предварительно заданным значением. Например, пороговое значение может предварительно задаваться в декодере аудиосигналов.
Согласно другому варианту осуществления, маскирование осуществляется для спектральных данных сразу после первого этапа декодирования и до того, как осуществляется заполнение шумом, глобальное усиление и/или TNS.
Этот вариант осуществления проиллюстрирован на фиг. 8. Фиг. 8 иллюстрирует декодер согласно дополнительному варианту осуществления. Декодер содержит первый модуль 810 декодирования. Первый модуль 810 декодирования выполнен с возможностью формировать сформированные спектральные значения на основе принимаемого безошибочного аудиокадра. Сформированные спектральные значения затем сохраняются в буферном блоке устройства 820 для формирования спектральных замещающих значений. Кроме того, сформированные спектральные значения вводятся в процессор 830, который обрабатывает сформированные спектральные значения посредством осуществления TNS, применения заполнения шумом и/или посредством применения глобального усиления, чтобы получать спектральные аудиозначения декодированного аудиосигнала. Если текущий кадр пропущен или является ошибочным, устройство 820 для формирования спектральных замещающих значений формирует спектральные замещающие значения и подает их в процессор 830.
Согласно варианту осуществления, проиллюстрированному на фиг. 8, модуль декодирования или процессор осуществляет некоторые или все следующие этапы в случае маскирования.
Спектральные значения, например, от последнего хорошего кадра немного модифицируются посредством произвольной смены их знака. На дополнительном этапе, заполнение шумом осуществляется на основе случайного шума для спектральных элементов выборки, квантованных до нуля. На другом этапе, коэффициент шума немного адаптируется по сравнению с ранее принимаемым безошибочным кадром.
На дополнительном этапе спектральное формирование шума выполняется посредством применения LPC-кодированной (LPC – кодирование с линейным прогнозированием) взвешенной спектральной огибающей в частотной области. Например, могут быть использованы LPC-коэффициенты последнего принимаемого безошибочного кадра. В другом варианте осуществления, могут быть использованы усредненные LPC-коэффициенты. Например, среднее последних трех значений рассматриваемого LPC-коэффициента последних трех принимаемых безошибочных кадров может быть сформировано для каждого LPC-коэффициента фильтра, и усредненные LPC-коэффициенты могут применяться.
На следующем этапе затухание может применяться к этим спектральным значениям. Затухание может зависеть от числа последовательных пропущенных или ошибочных кадров и от стабильности предыдущего LP-фильтра. Кроме того, информация усиления для прогнозирования может быть использована для того, чтобы влиять на затухание. Чем выше усиление для прогнозирования, тем быстрее может быть затухание. Вариант осуществления по фиг. 8 является немного более сложным, чем вариант осуществления по фиг. 6, но предоставляет лучшее качество звука.
Хотя некоторые аспекты описаны в контексте устройства, очевидно, что эти аспекты также представляют описание соответствующего способа, при этом блок или устройство соответствует этапу способа либо признаку этапа способа. Аналогично, аспекты, описанные в контексте этапа способа, также представляют описание соответствующего блока или элемента, или признака соответствующего устройства.
В зависимости от определенных требований к реализации, варианты осуществления изобретения могут быть реализованы в аппаратных средствах или в программном обеспечении. Реализация может выполняться с использованием цифрового носителя хранения данных, например гибкого диска, DVD, CD, ROM, PROM, EPROM, EEPROM или флэш-памяти, имеющего сохраненные электронночитаемые управляющие сигналы, которые взаимодействуют (или допускают взаимодействие) с программируемой компьютерной системой, так что осуществляется соответствующий способ.
Некоторые варианты осуществления согласно изобретению содержат носитель данных, имеющий электронночитаемые управляющие сигналы, которые допускают взаимодействие с программируемой компьютерной системой таким образом, что осуществляется один из способов, описанных в данном документе.
В общем, варианты осуществления настоящего изобретения могут быть реализованы как компьютерный программный продукт с программным кодом, при этом программный код выполнен с возможностью осуществления одного из способов, когда компьютерный программный продукт работает на компьютере. Программный код, например, может быть сохранен на машиночитаемом носителе.
Другие варианты осуществления содержат компьютерную программу для осуществления одного из способов, описанных в данном документе, сохраненную на машиночитаемом носителе или на энергонезависимом носителе хранения данных.
Другими словами, следовательно, вариант осуществления изобретаемого способа представляет собой компьютерную программу, имеющую программный код для осуществления одного из способов, описанных в данном документе, когда компьютерная программа работает на компьютере.
Следовательно, дополнительный вариант осуществления изобретаемых способов представляет собой носитель хранения данных (цифровой носитель хранения данных или машиночитаемый носитель), содержащий записанную компьютерную программу для осуществления одного из способов, описанных в данном документе.
Следовательно, дополнительный вариант осуществления изобретаемого способа представляет собой поток данных или последовательность сигналов, представляющих компьютерную программу для осуществления одного из способов, описанных в данном документе. Поток данных или последовательность сигналов, например, может быть выполнена с возможностью передачи через соединение для передачи данных, например, через Интернет или по радиоканалу.
Дополнительный вариант осуществления содержит средство обработки, например, компьютер или программируемое логическое устройство, выполненное с возможностью осуществлять один из способов, описанных в данном документе.
Дополнительный вариант осуществления содержит компьютер, имеющий установленную компьютерную программу для осуществления одного из способов, описанных в данном документе.
В некоторых вариантах осуществления, программируемое логическое устройство (например, программируемая пользователем вентильная матрица) может быть использовано для того, чтобы выполнять часть или все из функциональностей способов, описанных в данном документе. В некоторых вариантах осуществления, программируемая пользователем вентильная матрица может взаимодействовать с микропроцессором, чтобы осуществлять один из способов, описанных в данном документе. В общем, способы предпочтительно осуществляются посредством любого устройства.
Вышеописанные варианты осуществления являются просто иллюстративными в отношении принципов настоящего изобретения. Следует понимать, что модификации и изменения компоновок и подробностей, описанных в данном документе, должны быть очевидными для специалистов в данной области техники. Следовательно, они подразумеваются как ограниченные только посредством объема нижеприведенной формулы изобретения, а не посредством конкретных подробностей, представленных посредством описания и пояснения вариантов осуществления в данном документе.
Литература
1. 3GPP. "Audio codec processing functions; Extended Adaptive Multi-Rate – Wideband (AMR-WB+) codec; Transcoding functions", 2009 год, 3GPP TS 26.290.
2. USAC codec (Unified Speech and Audio Codec), ISO/IEC CD 23003-3, 24 сентября 2010 года.
3. 3GPP. "Speech codec speech processing functions; Adaptive Multi-Rate – Wideband (AMR-WB) speech codec; Transcoding functions", 2009 год, V9.0.0, 3GPP TS 26.190.
4. ISO/IEC 14496-3:2005: Information technology – Coding of audio-visual objects –Part 3: Audio, 2005 год.
5. ITU-T G.718 (06-2008) specification.
Claims (37)
1. Устройство (100) для формирования спектральных замещающих значений для аудиосигнала, содержащее:
- буферный блок (110) для сохранения предыдущих спектральных значений, связанных с ранее принимаемым безошибочным аудиокадром, и
- формирователь (120) кадров маскирования для формирования спектральных замещающих значений, когда текущий аудиокадр не принят или является ошибочным, при этом ранее принимаемый безошибочный аудиокадр содержит информацию фильтра, при этом формирователь (120) кадров маскирования выполнен с возможностью формировать спектральные замещающие значения, в зависимости от значения стабильности фильтра, основываясь на предыдущих спектральных значениях, при этом значение стабильности фильтра указывает стабильность прогнозного фильтра, и при этом значение стабильности фильтра зависит от информации фильтра.
2. Устройство (100) по п. 1, в котором формирователь (120) кадров маскирования выполнен с возможностью формировать спектральные замещающие значения посредством произвольной смены знака предыдущих спектральных значений.
3. Устройство (100) по п. 1, в котором формирователь (120) кадров маскирования выполнен с возможностью формировать спектральные замещающие значения посредством умножения каждого из предыдущих спектральных значений на первый коэффициент усиления, когда значение стабильности фильтра имеет первое значение, и посредством умножения каждого из предыдущих спектральных значений на второй коэффициент усиления, меньший первого коэффициента усиления, когда значение стабильности фильтра имеет второе значение, меньшее первого значения.
4. Устройство (100) по п. 1, в котором формирователь (120) кадров маскирования выполнен с возможностью формировать спектральные замещающие значения на основе значения стабильности фильтра, при этом ранее принимаемый безошибочный аудиокадр содержит первые коэффициенты прогнозирующей фильтрации прогнозного фильтра, при этом предшествующий кадр относительно ранее принимаемого безошибочного аудиокадра содержит вторые коэффициенты прогнозирующей фильтрации, и при этом значение стабильности фильтра зависит от первых коэффициентов прогнозирующей фильтрации и от вторых коэффициентов прогнозирующей фильтрации.
5. Устройство (100) по п. 4, в котором формирователь (120) кадров маскирования выполнен с возможностью определять значение стабильности фильтра на основе первых коэффициентов прогнозирующей фильтрации ранее принимаемого безошибочного аудиокадра и на основе вторых коэффициентов прогнозирующей фильтрации предшествующего кадра относительно ранее принимаемого безошибочного аудиокадра.
6. Устройство (100) по п. 4, в котором формирователь (120) кадров маскирования выполнен с возможностью формировать спектральные замещающие значения на основе значения стабильности фильтра, при этом значение стабильности фильтра зависит от показателя LSFdist, расстояния, и при этом показатель LSFdist расстояния задается посредством формулы:
где u+1 указывает общее число первых коэффициентов прогнозирующей фильтрации ранее принимаемого безошибочного аудиокадра и где u+1 также указывает общее число вторых коэффициентов прогнозирующей фильтрации предшествующего кадра относительно ранее принимаемого безошибочного аудиокадра, где ƒi указывает i-й коэффициент фильтрации из первых коэффициентов прогнозирующей фильтрации и где ƒi (p) указывает i-й коэффициент фильтрации вторых коэффициентов прогнозирующей фильтрации.
7. Устройство (100) по п. 1, в котором формирователь (120) кадров маскирования выполнен с возможностью формировать спектральные замещающие значения дополнительно на основе информации класса кадров, связанной с ранее принимаемым безошибочным аудиокадром.
8. Устройство (100) по п. 7, в котором формирователь (120) кадров маскирования выполнен с возможностью формировать спектральные замещающие значения на основе информации класса кадров, при этом информация класса кадров указывает, что ранее принимаемый безошибочный аудиокадр классифицируется как "искусственное вступление", "вступление", "вокализованный переход", "невокализованный переход", "невокализованный" или "вокализованный".
9. Устройство (100) по п. 1, в котором формирователь (120) кадров маскирования выполнен с возможностью формировать спектральные замещающие значения дополнительно на основе числа последовательных кадров, которые не поступают в приемное устройство или которые являются ошибочными с момента, когда последний безошибочный аудиокадр поступает в приемное устройство, при этом другие безошибочные аудиокадры не поступают в приемное устройство с момента, когда последний безошибочный аудиокадр поступает в приемное устройство.
10. Устройство (100) по п. 9,
- в котором формирователь (120) кадров маскирования выполнен с возможностью вычислять коэффициент затухания на основе значения стабильности фильтра и на основе числа последовательных кадров, которые не поступают в приемное устройство или которые являются ошибочными, и
- в котором формирователь (120) кадров маскирования выполнен с возможностью формировать спектральные замещающие значения посредством умножения коэффициента затухания, по меньшей мере, на некоторые предыдущие спектральные значения или, по меньшей мере, на некоторые значения из группы промежуточных значений, при этом каждое из промежуточных значений зависит по меньшей мере от одного из предыдущих спектральных значений.
11. Устройство (100) по п. 1, в котором формирователь (120) кадров маскирования выполнен с возможностью формировать спектральные замещающие значения на основе предыдущих спектральных значений, на основе значения стабильности фильтра, а также на основе усиления для прогнозирования временного формирования шума.
12. Декодер аудиосигналов, содержащий:
- устройство (610) для декодирования спектральных значений аудиосигналов и
- устройство (620) для формирования спектральных замещающих значений по п. 1,
- при этом устройство (610) для декодирования спектральных значений аудиосигналов выполнено с возможностью декодировать спектральные значения аудиосигнала на основе ранее принимаемого безошибочного аудиокадра, причем устройство (610) для декодирования спектральных значений аудиосигналов дополнительно выполнено с возможностью сохранять спектральные значения аудиосигнала в буферном блоке устройства (620) для формирования спектральных замещающих значений, и
- при этом устройство (620) для формирования спектральных замещающих значений выполнено с возможностью формировать спектральные замещающие значения на основе спектральных значений, сохраненных в буферном блоке, когда текущий аудиокадр не принят или является ошибочным.
13. Декодер аудиосигналов, содержащий:
- блок (710) декодирования для формирования первых промежуточных спектральных значений на основе принимаемого безошибочного аудиокадра,
- блок (720) временного формирования шума для осуществления временного формирования шума для первых промежуточных спектральных значений, чтобы получать вторые промежуточные спектральные значения,
- блок (730) вычисления усилений для прогнозирования для вычисления усиления для прогнозирования временного формирования шума в зависимости от первых промежуточных спектральных значений и в зависимости от вторых промежуточных спектральных значений,
- устройство (740) по п. 1 для формирования спектральных замещающих значений, когда текущий аудиокадр не принят или является ошибочным, и
- блок (750) выбора значений для сохранения первых промежуточных спектральных значений в буферном блоке (745) устройства (740) для формирования спектральных замещающих значений, если усиление для прогнозирования превышает или равно пороговому значению, или для сохранения вторых промежуточных спектральных значений в буферном блоке устройства для формирования спектральных замещающих значений, если усиление для прогнозирования меньше порогового значения.
14. Декодер аудиосигналов, содержащий:
- первый модуль (810) декодирования для формирования сформированных спектральных значений на основе принимаемого безошибочного аудиокадра,
- устройство (820) для формирования спектральных замещающих значений по п. 1 и
- процессор (830) для обработки сформированных спектральных значений посредством осуществления временного формирования шума, применения заполнения шумом или применения глобального усиления, чтобы получать спектральные аудиозначения декодированного аудиосигнала,
- при этом устройство (820) для формирования спектральных замещающих значений выполнено с возможностью формировать спектральные замещающие значения и подавать их в процессор (830), когда текущий кадр не принят или является ошибочным.
15. Способ для формирования спектральных замещающих значений для аудиосигнала, содержащий этапы, на которых:
- сохраняют предыдущие спектральные значения, связанные с ранее принимаемым безошибочным аудиокадром, и
- формируют спектральные замещающие значения, когда текущий аудиокадр не принят или является ошибочным, при этом ранее принимаемый безошибочный аудиокадр содержит информацию фильтра, при этом спектральные замещающие значения формируются в зависимости от значения стабильности фильтра, основываясь на предыдущих спектральных значениях, при этом значение стабильности фильтра указывает стабильность прогнозного фильтра, заданного посредством информации фильтра, и при этом значение стабильности фильтра зависит от информации фильтра.
16. Машиночитаемый носитель данных, содержащий компьютерную программу для осуществления способа по п. 15, когда компьютерная программа выполняется посредством компьютера или процессора сигналов.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161442632P | 2011-02-14 | 2011-02-14 | |
US61/442,632 | 2011-02-14 | ||
PCT/EP2012/052395 WO2012110447A1 (en) | 2011-02-14 | 2012-02-13 | Apparatus and method for error concealment in low-delay unified speech and audio coding (usac) |
Publications (2)
Publication Number | Publication Date |
---|---|
RU2013142135A RU2013142135A (ru) | 2015-03-27 |
RU2630390C2 true RU2630390C2 (ru) | 2017-09-07 |
Family
ID=71943602
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
RU2013142135A RU2630390C2 (ru) | 2011-02-14 | 2012-02-13 | Устройство и способ для маскирования ошибок при стандартизированном кодировании речи и аудио с низкой задержкой (usac) |
Country Status (19)
Country | Link |
---|---|
US (1) | US9384739B2 (ru) |
EP (1) | EP2661745B1 (ru) |
JP (1) | JP5849106B2 (ru) |
KR (1) | KR101551046B1 (ru) |
CN (1) | CN103620672B (ru) |
AR (1) | AR085218A1 (ru) |
AU (1) | AU2012217215B2 (ru) |
BR (1) | BR112013020324B8 (ru) |
CA (1) | CA2827000C (ru) |
ES (1) | ES2539174T3 (ru) |
HK (1) | HK1191130A1 (ru) |
MX (1) | MX2013009301A (ru) |
MY (1) | MY167853A (ru) |
PL (1) | PL2661745T3 (ru) |
RU (1) | RU2630390C2 (ru) |
SG (1) | SG192734A1 (ru) |
TW (1) | TWI484479B (ru) |
WO (1) | WO2012110447A1 (ru) |
ZA (1) | ZA201306499B (ru) |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107103910B (zh) | 2011-10-21 | 2020-09-18 | 三星电子株式会社 | 帧错误隐藏方法和设备以及音频解码方法和设备 |
US9741350B2 (en) * | 2013-02-08 | 2017-08-22 | Qualcomm Incorporated | Systems and methods of performing gain control |
PT3011557T (pt) | 2013-06-21 | 2017-07-25 | Fraunhofer Ges Forschung | Aparelho e método para desvanecimento de sinal aperfeiçoado para sistemas de codificação de áudio comutado durante a ocultação de erros |
CN108364657B (zh) | 2013-07-16 | 2020-10-30 | 超清编解码有限公司 | 处理丢失帧的方法和解码器 |
PT3336841T (pt) * | 2013-10-31 | 2020-03-26 | Fraunhofer Ges Forschung | Descodificador de áudio e método para fornecer uma informação de áudio descodificada utilizando uma dissimulação de erros que modifica um sinal de excitação de domínio de tempo |
CA2929012C (en) * | 2013-10-31 | 2020-06-09 | Jeremie Lecomte | Audio decoder and method for providing a decoded audio information using an error concealment based on a time domain excitation signal |
KR101852749B1 (ko) * | 2013-10-31 | 2018-06-07 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 주파수 도메인에서의 시간적인 사전-형상화된 잡음의 삽입에 의한 오디오 대역폭 확장 |
EP2922056A1 (en) * | 2014-03-19 | 2015-09-23 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus, method and corresponding computer program for generating an error concealment signal using power compensation |
EP2922054A1 (en) * | 2014-03-19 | 2015-09-23 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus, method and corresponding computer program for generating an error concealment signal using an adaptive noise estimation |
EP2922055A1 (en) * | 2014-03-19 | 2015-09-23 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus, method and corresponding computer program for generating an error concealment signal using individual replacement LPC representations for individual codebook information |
NO2780522T3 (ru) * | 2014-05-15 | 2018-06-09 | ||
KR20180095123A (ko) * | 2014-05-15 | 2018-08-24 | 텔레폰악티에볼라겟엘엠에릭슨(펍) | 오디오 신호 분류 및 코딩 |
CN105225666B (zh) | 2014-06-25 | 2016-12-28 | 华为技术有限公司 | 处理丢失帧的方法和装置 |
EP2980792A1 (en) * | 2014-07-28 | 2016-02-03 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for generating an enhanced signal using independent noise-filling |
CN105451842B (zh) * | 2014-07-28 | 2019-06-11 | 弗劳恩霍夫应用研究促进协会 | 选择第一编码演算法和第二编码演算法之一的装置与方法 |
EP2980790A1 (en) | 2014-07-28 | 2016-02-03 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for comfort noise generation mode selection |
KR102192999B1 (ko) | 2016-03-07 | 2020-12-18 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 적절히 디코딩된 오디오 프레임의 디코딩된 표현의 특성을 사용하는 에러 은닉 유닛, 오디오 디코더, 및 관련 방법과 컴퓨터 프로그램 |
KR102250472B1 (ko) * | 2016-03-07 | 2021-05-12 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 하이브리드 은닉 방법: 오디오 코덱들에서 주파수 및 시간 도메인 패킷 손실 은닉의 결합 |
ES2874629T3 (es) * | 2016-03-07 | 2021-11-05 | Fraunhofer Ges Forschung | Unidad de ocultación de error, decodificador de audio y método y programa informático relacionados que desvanecen una trama de audio ocultada según factores de amortiguamiento diferentes para bandas de frecuencia diferentes |
KR20180037852A (ko) * | 2016-10-05 | 2018-04-13 | 삼성전자주식회사 | 영상 처리 장치 및 그 제어방법 |
EP3382700A1 (en) * | 2017-03-31 | 2018-10-03 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus and method for post-processing an audio signal using a transient location detection |
KR20200097594A (ko) | 2019-02-08 | 2020-08-19 | 김승현 | 유연하고 자유롭고 집중적인 집진기 |
WO2020164753A1 (en) * | 2019-02-13 | 2020-08-20 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Decoder and decoding method selecting an error concealment mode, and encoder and encoding method |
WO2020165263A2 (en) * | 2019-02-13 | 2020-08-20 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Decoder and decoding method selecting an error concealment mode, and encoder and encoding method |
CN112992160B (zh) * | 2021-05-08 | 2021-07-27 | 北京百瑞互联技术有限公司 | 一种音频错误隐藏方法及装置 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0655159A1 (en) * | 1993-06-11 | 1995-05-31 | Telefonaktiebolaget Lm Ericsson | Rejected frame concealment |
WO2003102921A1 (en) * | 2002-05-31 | 2003-12-11 | Voiceage Corporation | Method and device for efficient frame erasure concealment in linear predictive based speech codecs |
JP2007514977A (ja) * | 2003-12-19 | 2007-06-07 | テレフオンアクチーボラゲット エル エム エリクソン(パブル) | 改良された周波数領域におけるエラー隠蔽技術 |
WO2007073604A1 (en) * | 2005-12-28 | 2007-07-05 | Voiceage Corporation | Method and device for efficient frame erasure concealment in speech codecs |
US20070238415A1 (en) * | 2005-10-07 | 2007-10-11 | Deepen Sinha | Method and apparatus for encoding and decoding |
WO2008056775A1 (fr) * | 2006-11-10 | 2008-05-15 | Panasonic Corporation | Dispositif de décodage de paramètre, dispositif de codage de paramètre et procédé de décodage de paramètre |
RU2335809C2 (ru) * | 2004-02-13 | 2008-10-10 | Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. | Аудиокодирование |
US20110007827A1 (en) * | 2008-03-28 | 2011-01-13 | France Telecom | Concealment of transmission error in a digital audio signal in a hierarchical decoding structure |
Family Cites Families (180)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ES2225321T3 (es) | 1991-06-11 | 2005-03-16 | Qualcomm Incorporated | Aparaato y procedimiento para el enmascaramiento de errores en tramas de datos. |
US5408580A (en) | 1992-09-21 | 1995-04-18 | Aware, Inc. | Audio compression system employing multi-rate signal analysis |
SE501340C2 (sv) * | 1993-06-11 | 1995-01-23 | Ericsson Telefon Ab L M | Döljande av transmissionsfel i en talavkodare |
BE1007617A3 (nl) | 1993-10-11 | 1995-08-22 | Philips Electronics Nv | Transmissiesysteem met gebruik van verschillende codeerprincipes. |
US5657422A (en) | 1994-01-28 | 1997-08-12 | Lucent Technologies Inc. | Voice activity detection driven noise remediator |
US5784532A (en) | 1994-02-16 | 1998-07-21 | Qualcomm Incorporated | Application specific integrated circuit (ASIC) for performing rapid speech compression in a mobile telephone system |
US5684920A (en) | 1994-03-17 | 1997-11-04 | Nippon Telegraph And Telephone | Acoustic signal transform coding method and decoding method having a high efficiency envelope flattening method therein |
US5568588A (en) | 1994-04-29 | 1996-10-22 | Audiocodes Ltd. | Multi-pulse analysis speech processing System and method |
KR100419545B1 (ko) | 1994-10-06 | 2004-06-04 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 다른코딩원리들을이용한전송시스템 |
EP0720316B1 (en) | 1994-12-30 | 1999-12-08 | Daewoo Electronics Co., Ltd | Adaptive digital audio encoding apparatus and a bit allocation method thereof |
SE506379C3 (sv) | 1995-03-22 | 1998-01-19 | Ericsson Telefon Ab L M | Lpc-talkodare med kombinerad excitation |
JP3317470B2 (ja) | 1995-03-28 | 2002-08-26 | 日本電信電話株式会社 | 音響信号符号化方法、音響信号復号化方法 |
US5659622A (en) | 1995-11-13 | 1997-08-19 | Motorola, Inc. | Method and apparatus for suppressing noise in a communication system |
US5848391A (en) | 1996-07-11 | 1998-12-08 | Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. | Method subband of coding and decoding audio signals using variable length windows |
JP3259759B2 (ja) | 1996-07-22 | 2002-02-25 | 日本電気株式会社 | 音声信号伝送方法及び音声符号復号化システム |
JPH10124092A (ja) | 1996-10-23 | 1998-05-15 | Sony Corp | 音声符号化方法及び装置、並びに可聴信号符号化方法及び装置 |
US5960389A (en) | 1996-11-15 | 1999-09-28 | Nokia Mobile Phones Limited | Methods for generating comfort noise during discontinuous transmission |
JPH10214100A (ja) | 1997-01-31 | 1998-08-11 | Sony Corp | 音声合成方法 |
US6134518A (en) | 1997-03-04 | 2000-10-17 | International Business Machines Corporation | Digital audio signal coding using a CELP coder and a transform coder |
JP3223966B2 (ja) | 1997-07-25 | 2001-10-29 | 日本電気株式会社 | 音声符号化/復号化装置 |
US6070137A (en) | 1998-01-07 | 2000-05-30 | Ericsson Inc. | Integrated frequency-domain voice coding using an adaptive spectral enhancement filter |
ATE302991T1 (de) | 1998-01-22 | 2005-09-15 | Deutsche Telekom Ag | Verfahren zur signalgesteuerten schaltung zwischen verschiedenen audiokodierungssystemen |
GB9811019D0 (en) | 1998-05-21 | 1998-07-22 | Univ Surrey | Speech coders |
US6173257B1 (en) | 1998-08-24 | 2001-01-09 | Conexant Systems, Inc | Completed fixed codebook for speech encoder |
US6439967B2 (en) * | 1998-09-01 | 2002-08-27 | Micron Technology, Inc. | Microelectronic substrate assembly planarizing machines and methods of mechanical and chemical-mechanical planarization of microelectronic substrate assemblies |
SE521225C2 (sv) | 1998-09-16 | 2003-10-14 | Ericsson Telefon Ab L M | Förfarande och anordning för CELP-kodning/avkodning |
US6317117B1 (en) | 1998-09-23 | 2001-11-13 | Eugene Goff | User interface for the control of an audio spectrum filter processor |
US7272556B1 (en) | 1998-09-23 | 2007-09-18 | Lucent Technologies Inc. | Scalable and embedded codec for speech and audio signals |
US7124079B1 (en) | 1998-11-23 | 2006-10-17 | Telefonaktiebolaget Lm Ericsson (Publ) | Speech coding with comfort noise variability feature for increased fidelity |
FI114833B (fi) | 1999-01-08 | 2004-12-31 | Nokia Corp | Menetelmä, puhekooderi ja matkaviestin puheenkoodauskehysten muodostamiseksi |
DE19921122C1 (de) * | 1999-05-07 | 2001-01-25 | Fraunhofer Ges Forschung | Verfahren und Vorrichtung zum Verschleiern eines Fehlers in einem codierten Audiosignal und Verfahren und Vorrichtung zum Decodieren eines codierten Audiosignals |
JP2003501925A (ja) | 1999-06-07 | 2003-01-14 | エリクソン インコーポレイテッド | パラメトリックノイズモデル統計値を用いたコンフォートノイズの生成方法及び装置 |
JP4464484B2 (ja) | 1999-06-15 | 2010-05-19 | パナソニック株式会社 | 雑音信号符号化装置および音声信号符号化装置 |
US6236960B1 (en) | 1999-08-06 | 2001-05-22 | Motorola, Inc. | Factorial packing method and apparatus for information coding |
US6636829B1 (en) * | 1999-09-22 | 2003-10-21 | Mindspeed Technologies, Inc. | Speech communication system and method for handling lost frames |
ATE341074T1 (de) | 2000-02-29 | 2006-10-15 | Qualcomm Inc | Multimodaler mischbereich-sprachkodierer mit geschlossener regelschleife |
US6757654B1 (en) * | 2000-05-11 | 2004-06-29 | Telefonaktiebolaget Lm Ericsson | Forward error correction in speech coding |
JP2002118517A (ja) | 2000-07-31 | 2002-04-19 | Sony Corp | 直交変換装置及び方法、逆直交変換装置及び方法、変換符号化装置及び方法、並びに復号装置及び方法 |
FR2813722B1 (fr) * | 2000-09-05 | 2003-01-24 | France Telecom | Procede et dispositif de dissimulation d'erreurs et systeme de transmission comportant un tel dispositif |
US6847929B2 (en) | 2000-10-12 | 2005-01-25 | Texas Instruments Incorporated | Algebraic codebook system and method |
CA2327041A1 (en) | 2000-11-22 | 2002-05-22 | Voiceage Corporation | A method for indexing pulse positions and signs in algebraic codebooks for efficient coding of wideband signals |
US20050130321A1 (en) | 2001-04-23 | 2005-06-16 | Nicholson Jeremy K. | Methods for analysis of spectral data and their applications |
US7206739B2 (en) | 2001-05-23 | 2007-04-17 | Samsung Electronics Co., Ltd. | Excitation codebook search method in a speech coding system |
US20020184009A1 (en) | 2001-05-31 | 2002-12-05 | Heikkinen Ari P. | Method and apparatus for improved voicing determination in speech signals containing high levels of jitter |
US20030120484A1 (en) | 2001-06-12 | 2003-06-26 | David Wong | Method and system for generating colored comfort noise in the absence of silence insertion description packets |
US6941263B2 (en) | 2001-06-29 | 2005-09-06 | Microsoft Corporation | Frequency domain postfiltering for quality enhancement of coded speech |
US6879955B2 (en) | 2001-06-29 | 2005-04-12 | Microsoft Corporation | Signal modification based on continuous time warping for low bit rate CELP coding |
DE10140507A1 (de) | 2001-08-17 | 2003-02-27 | Philips Corp Intellectual Pty | Verfahren für die algebraische Codebook-Suche eines Sprachsignalkodierers |
US7711563B2 (en) * | 2001-08-17 | 2010-05-04 | Broadcom Corporation | Method and system for frame erasure concealment for predictive speech coding based on extrapolation of speech waveform |
KR100438175B1 (ko) | 2001-10-23 | 2004-07-01 | 엘지전자 주식회사 | 코드북 검색방법 |
CA2365203A1 (en) | 2001-12-14 | 2003-06-14 | Voiceage Corporation | A signal modification method for efficient coding of speech signals |
US6646332B2 (en) * | 2002-01-18 | 2003-11-11 | Terence Quintin Collier | Semiconductor package device |
CA2388358A1 (en) | 2002-05-31 | 2003-11-30 | Voiceage Corporation | A method and device for multi-rate lattice vector quantization |
CA2388352A1 (en) | 2002-05-31 | 2003-11-30 | Voiceage Corporation | A method and device for frequency-selective pitch enhancement of synthesized speed |
US7302387B2 (en) | 2002-06-04 | 2007-11-27 | Texas Instruments Incorporated | Modification of fixed codebook search in G.729 Annex E audio coding |
CN100492492C (zh) | 2002-09-19 | 2009-05-27 | 松下电器产业株式会社 | 音频解码设备和方法 |
RU2331933C2 (ru) | 2002-10-11 | 2008-08-20 | Нокиа Корпорейшн | Способы и устройства управляемого источником широкополосного кодирования речи с переменной скоростью в битах |
US7343283B2 (en) | 2002-10-23 | 2008-03-11 | Motorola, Inc. | Method and apparatus for coding a noise-suppressed audio signal |
US7363218B2 (en) | 2002-10-25 | 2008-04-22 | Dilithium Networks Pty. Ltd. | Method and apparatus for fast CELP parameter mapping |
KR100463419B1 (ko) | 2002-11-11 | 2004-12-23 | 한국전자통신연구원 | 적은 복잡도를 가진 고정 코드북 검색방법 및 장치 |
KR100465316B1 (ko) | 2002-11-18 | 2005-01-13 | 한국전자통신연구원 | 음성 부호화기 및 이를 이용한 음성 부호화 방법 |
KR20040058855A (ko) | 2002-12-27 | 2004-07-05 | 엘지전자 주식회사 | 음성 변조 장치 및 방법 |
US7249014B2 (en) | 2003-03-13 | 2007-07-24 | Intel Corporation | Apparatus, methods and articles incorporating a fast algebraic codebook search technique |
US20050021338A1 (en) | 2003-03-17 | 2005-01-27 | Dan Graboi | Recognition device and system |
WO2004090870A1 (ja) | 2003-04-04 | 2004-10-21 | Kabushiki Kaisha Toshiba | 広帯域音声を符号化または復号化するための方法及び装置 |
US7318035B2 (en) | 2003-05-08 | 2008-01-08 | Dolby Laboratories Licensing Corporation | Audio coding systems and methods using spectral component coupling and spectral component regeneration |
DE602004029786D1 (de) | 2003-06-30 | 2010-12-09 | Koninkl Philips Electronics Nv | Verbesserung der qualität von dekodierten audio mittels hinzufügen von geräusch |
CA2475283A1 (en) * | 2003-07-17 | 2005-01-17 | Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Industry Through The Communications Research Centre | Method for recovery of lost speech data |
US20050091044A1 (en) | 2003-10-23 | 2005-04-28 | Nokia Corporation | Method and system for pitch contour quantization in audio coding |
US20050091041A1 (en) | 2003-10-23 | 2005-04-28 | Nokia Corporation | Method and system for speech coding |
JP4966013B2 (ja) | 2003-10-30 | 2012-07-04 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | オーディオ信号のエンコードまたはデコード |
CA2457988A1 (en) | 2004-02-18 | 2005-08-18 | Voiceage Corporation | Methods and devices for audio compression based on acelp/tcx coding and multi-rate lattice vector quantization |
FI118835B (fi) | 2004-02-23 | 2008-03-31 | Nokia Corp | Koodausmallin valinta |
FI118834B (fi) | 2004-02-23 | 2008-03-31 | Nokia Corp | Audiosignaalien luokittelu |
EP1722359B1 (en) * | 2004-03-05 | 2011-09-07 | Panasonic Corporation | Error conceal device and error conceal method |
WO2005096274A1 (fr) | 2004-04-01 | 2005-10-13 | Beijing Media Works Co., Ltd | Dispositif et procede de codage/decodage audio ameliores |
GB0408856D0 (en) | 2004-04-21 | 2004-05-26 | Nokia Corp | Signal encoding |
BRPI0418838A (pt) | 2004-05-17 | 2007-11-13 | Nokia Corp | método para suportar uma codificação de um sinal de áudio, módulo para suportar uma codificação de um sinal de áudio, dispositivo eletrÈnico, sistema de codificação de áudio, e, produto de programa de software |
US7649988B2 (en) | 2004-06-15 | 2010-01-19 | Acoustic Technologies, Inc. | Comfort noise generator using modified Doblinger noise estimate |
US8160274B2 (en) | 2006-02-07 | 2012-04-17 | Bongiovi Acoustics Llc. | System and method for digital signal processing |
US7630902B2 (en) | 2004-09-17 | 2009-12-08 | Digital Rise Technology Co., Ltd. | Apparatus and methods for digital audio coding using codebook application ranges |
KR100656788B1 (ko) | 2004-11-26 | 2006-12-12 | 한국전자통신연구원 | 비트율 신축성을 갖는 코드벡터 생성 방법 및 그를 이용한 광대역 보코더 |
TWI253057B (en) | 2004-12-27 | 2006-04-11 | Quanta Comp Inc | Search system and method thereof for searching code-vector of speech signal in speech encoder |
US7519535B2 (en) | 2005-01-31 | 2009-04-14 | Qualcomm Incorporated | Frame erasure concealment in voice communications |
JP5202960B2 (ja) | 2005-01-31 | 2013-06-05 | スカイプ | 通信システムにおけるフレームの連結方法 |
US20070147518A1 (en) | 2005-02-18 | 2007-06-28 | Bruno Bessette | Methods and devices for low-frequency emphasis during audio compression based on ACELP/TCX |
US8155965B2 (en) | 2005-03-11 | 2012-04-10 | Qualcomm Incorporated | Time warping frames inside the vocoder by modifying the residual |
US8484036B2 (en) | 2005-04-01 | 2013-07-09 | Qualcomm Incorporated | Systems, methods, and apparatus for wideband speech coding |
US8577686B2 (en) | 2005-05-26 | 2013-11-05 | Lg Electronics Inc. | Method and apparatus for decoding an audio signal |
US7707034B2 (en) | 2005-05-31 | 2010-04-27 | Microsoft Corporation | Audio codec post-filter |
RU2296377C2 (ru) | 2005-06-14 | 2007-03-27 | Михаил Николаевич Гусев | Способ анализа и синтеза речи |
ES2629727T3 (es) | 2005-06-18 | 2017-08-14 | Nokia Technologies Oy | Sistema y método para la transmisión adaptativa de parámetros de ruido de confort durante la transmisión de habla discontinua |
KR100851970B1 (ko) | 2005-07-15 | 2008-08-12 | 삼성전자주식회사 | 오디오 신호의 중요주파수 성분 추출방법 및 장치와 이를이용한 저비트율 오디오 신호 부호화/복호화 방법 및 장치 |
US7610197B2 (en) | 2005-08-31 | 2009-10-27 | Motorola, Inc. | Method and apparatus for comfort noise generation in speech communication systems |
RU2312405C2 (ru) | 2005-09-13 | 2007-12-10 | Михаил Николаевич Гусев | Способ осуществления машинной оценки качества звуковых сигналов |
US7720677B2 (en) | 2005-11-03 | 2010-05-18 | Coding Technologies Ab | Time warped modified transform coding of audio signals |
US7536299B2 (en) * | 2005-12-19 | 2009-05-19 | Dolby Laboratories Licensing Corporation | Correlating and decorrelating transforms for multiple description coding systems |
WO2007080211A1 (en) | 2006-01-09 | 2007-07-19 | Nokia Corporation | Decoding of binaural audio signals |
CN101371297A (zh) | 2006-01-18 | 2009-02-18 | Lg电子株式会社 | 用于编码和解码信号的设备和方法 |
CA2636493A1 (en) | 2006-01-18 | 2007-07-26 | Lg Electronics Inc. | Apparatus and method for encoding and decoding signal |
US8032369B2 (en) | 2006-01-20 | 2011-10-04 | Qualcomm Incorporated | Arbitrary average data rates for variable rate coders |
US7668304B2 (en) * | 2006-01-25 | 2010-02-23 | Avaya Inc. | Display hierarchy of participants during phone call |
FR2897733A1 (fr) | 2006-02-20 | 2007-08-24 | France Telecom | Procede de discrimination et d'attenuation fiabilisees des echos d'un signal numerique dans un decodeur et dispositif correspondant |
FR2897977A1 (fr) * | 2006-02-28 | 2007-08-31 | France Telecom | Procede de limitation de gain d'excitation adaptative dans un decodeur audio |
US20070253577A1 (en) | 2006-05-01 | 2007-11-01 | Himax Technologies Limited | Equalizer bank with interference reduction |
US7873511B2 (en) | 2006-06-30 | 2011-01-18 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Audio encoder, audio decoder and audio processor having a dynamically variable warping characteristic |
JP4810335B2 (ja) | 2006-07-06 | 2011-11-09 | 株式会社東芝 | 広帯域オーディオ信号符号化装置および広帯域オーディオ信号復号装置 |
US8255213B2 (en) * | 2006-07-12 | 2012-08-28 | Panasonic Corporation | Speech decoding apparatus, speech encoding apparatus, and lost frame concealment method |
US8812306B2 (en) * | 2006-07-12 | 2014-08-19 | Panasonic Intellectual Property Corporation Of America | Speech decoding and encoding apparatus for lost frame concealment using predetermined number of waveform samples peripheral to the lost frame |
US7933770B2 (en) | 2006-07-14 | 2011-04-26 | Siemens Audiologische Technik Gmbh | Method and device for coding audio data based on vector quantisation |
CN102592303B (zh) | 2006-07-24 | 2015-03-11 | 索尼株式会社 | 毛发运动合成器***和用于毛发/皮毛流水线的优化技术 |
US7987089B2 (en) | 2006-07-31 | 2011-07-26 | Qualcomm Incorporated | Systems and methods for modifying a zero pad region of a windowed frame of an audio signal |
EP2054879B1 (en) * | 2006-08-15 | 2010-01-20 | Broadcom Corporation | Re-phasing of decoder states after packet loss |
US7877253B2 (en) * | 2006-10-06 | 2011-01-25 | Qualcomm Incorporated | Systems, methods, and apparatus for frame erasure recovery |
DE102006049154B4 (de) | 2006-10-18 | 2009-07-09 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Kodierung eines Informationssignals |
BRPI0709310B1 (pt) | 2006-10-25 | 2019-11-05 | Fraunhofer Ges Zur Foeerderung Der Angewandten Forschung E V | equipamento e método para a geração de valores de sub-banda de áudio e equipamento e método para a geração de amostras de áudio no domínio do tempo |
CA2672165C (en) | 2006-12-12 | 2014-07-29 | Ralf Geiger | Encoder, decoder and methods for encoding and decoding data segments representing a time-domain data stream |
FR2911228A1 (fr) | 2007-01-05 | 2008-07-11 | France Telecom | Codage par transformee, utilisant des fenetres de ponderation et a faible retard. |
KR101379263B1 (ko) | 2007-01-12 | 2014-03-28 | 삼성전자주식회사 | 대역폭 확장 복호화 방법 및 장치 |
FR2911426A1 (fr) | 2007-01-15 | 2008-07-18 | France Telecom | Modification d'un signal de parole |
US7873064B1 (en) * | 2007-02-12 | 2011-01-18 | Marvell International Ltd. | Adaptive jitter buffer-packet loss concealment |
JP4708446B2 (ja) | 2007-03-02 | 2011-06-22 | パナソニック株式会社 | 符号化装置、復号装置およびそれらの方法 |
US8364472B2 (en) * | 2007-03-02 | 2013-01-29 | Panasonic Corporation | Voice encoding device and voice encoding method |
AU2008222241B2 (en) | 2007-03-02 | 2012-11-29 | Panasonic Intellectual Property Corporation Of America | Encoding device and encoding method |
JP2008261904A (ja) * | 2007-04-10 | 2008-10-30 | Matsushita Electric Ind Co Ltd | 符号化装置、復号化装置、符号化方法および復号化方法 |
US8630863B2 (en) | 2007-04-24 | 2014-01-14 | Samsung Electronics Co., Ltd. | Method and apparatus for encoding and decoding audio/speech signal |
CN101388210B (zh) | 2007-09-15 | 2012-03-07 | 华为技术有限公司 | 编解码方法及编解码器 |
US9653088B2 (en) | 2007-06-13 | 2017-05-16 | Qualcomm Incorporated | Systems, methods, and apparatus for signal encoding using pitch-regularizing and non-pitch-regularizing coding |
KR101513028B1 (ko) | 2007-07-02 | 2015-04-17 | 엘지전자 주식회사 | 방송 수신기 및 방송신호 처리방법 |
US8185381B2 (en) | 2007-07-19 | 2012-05-22 | Qualcomm Incorporated | Unified filter bank for performing signal conversions |
CN101110214B (zh) | 2007-08-10 | 2011-08-17 | 北京理工大学 | 一种基于多描述格型矢量量化技术的语音编码方法 |
US8428957B2 (en) | 2007-08-24 | 2013-04-23 | Qualcomm Incorporated | Spectral noise shaping in audio coding based on spectral dynamics in frequency sub-bands |
EP3288028B1 (en) | 2007-08-27 | 2019-07-03 | Telefonaktiebolaget LM Ericsson (publ) | Low-complexity spectral analysis/synthesis using selectable time resolution |
JP4886715B2 (ja) | 2007-08-28 | 2012-02-29 | 日本電信電話株式会社 | 定常率算出装置、雑音レベル推定装置、雑音抑圧装置、それらの方法、プログラム及び記録媒体 |
JP5264913B2 (ja) | 2007-09-11 | 2013-08-14 | ヴォイスエイジ・コーポレーション | 話声およびオーディオの符号化における、代数符号帳の高速検索のための方法および装置 |
CN100524462C (zh) * | 2007-09-15 | 2009-08-05 | 华为技术有限公司 | 对高带信号进行帧错误隐藏的方法及装置 |
US8576096B2 (en) | 2007-10-11 | 2013-11-05 | Motorola Mobility Llc | Apparatus and method for low complexity combinatorial coding of signals |
KR101373004B1 (ko) | 2007-10-30 | 2014-03-26 | 삼성전자주식회사 | 고주파수 신호 부호화 및 복호화 장치 및 방법 |
CN101425292B (zh) | 2007-11-02 | 2013-01-02 | 华为技术有限公司 | 一种音频信号的解码方法及装置 |
DE102007055830A1 (de) | 2007-12-17 | 2009-06-18 | Zf Friedrichshafen Ag | Verfahren und Vorrichtung zum Betrieb eines Hybridantriebes eines Fahrzeuges |
CN101483043A (zh) | 2008-01-07 | 2009-07-15 | 中兴通讯股份有限公司 | 基于分类和排列组合的码本索引编码方法 |
CN101488344B (zh) | 2008-01-16 | 2011-09-21 | 华为技术有限公司 | 一种量化噪声泄漏控制方法及装置 |
DE102008015702B4 (de) | 2008-01-31 | 2010-03-11 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zur Bandbreitenerweiterung eines Audiosignals |
US8000487B2 (en) | 2008-03-06 | 2011-08-16 | Starkey Laboratories, Inc. | Frequency translation by high-frequency spectral envelope warping in hearing assistance devices |
EP2107556A1 (en) | 2008-04-04 | 2009-10-07 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio transform coding using pitch correction |
US8879643B2 (en) * | 2008-04-15 | 2014-11-04 | Qualcomm Incorporated | Data substitution scheme for oversampled data |
US8768690B2 (en) | 2008-06-20 | 2014-07-01 | Qualcomm Incorporated | Coding scheme selection for low-bit-rate applications |
ES2683077T3 (es) | 2008-07-11 | 2018-09-24 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Codificador y decodificador de audio para codificar y decodificar tramas de una señal de audio muestreada |
MY154452A (en) | 2008-07-11 | 2015-06-15 | Fraunhofer Ges Forschung | An apparatus and a method for decoding an encoded audio signal |
PT3002750T (pt) | 2008-07-11 | 2018-02-15 | Fraunhofer Ges Forschung | Codificador e descodificador de áudio para codificar e descodificar amostras de áudio |
KR101400484B1 (ko) | 2008-07-11 | 2014-05-28 | 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. | 시간 워프 활성 신호의 제공 및 이를 이용한 오디오 신호의 인코딩 |
PL2346030T3 (pl) | 2008-07-11 | 2015-03-31 | Fraunhofer Ges Forschung | Koder audio, sposób kodowania sygnału audio oraz program komputerowy |
EP2144230A1 (en) | 2008-07-11 | 2010-01-13 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Low bitrate audio encoding/decoding scheme having cascaded switches |
RU2492530C2 (ru) | 2008-07-11 | 2013-09-10 | Фраунхофер-Гезелльшафт цур Фёрдерунг дер ангевандтен Форшунг Е.Ф. | Устройство и способ кодирования/декодирования звукового сигнала посредством использования схемы переключения совмещения имен |
US8352279B2 (en) | 2008-09-06 | 2013-01-08 | Huawei Technologies Co., Ltd. | Efficient temporal envelope coding approach by prediction between low band signal and high band signal |
US8577673B2 (en) | 2008-09-15 | 2013-11-05 | Huawei Technologies Co., Ltd. | CELP post-processing for music signals |
US8798776B2 (en) | 2008-09-30 | 2014-08-05 | Dolby International Ab | Transcoding of audio metadata |
DE102008042579B4 (de) * | 2008-10-02 | 2020-07-23 | Robert Bosch Gmbh | Verfahren zur Fehlerverdeckung bei fehlerhafter Übertragung von Sprachdaten |
KR101403115B1 (ko) | 2008-10-08 | 2014-06-27 | 보이세지 코포레이션 | 다중 분해능 스위치드 오디오 부호화/복호화 방법 및 부호화/복호화기 |
KR101315617B1 (ko) | 2008-11-26 | 2013-10-08 | 광운대학교 산학협력단 | 모드 스위칭에 기초하여 윈도우 시퀀스를 처리하는 통합 음성/오디오 부/복호화기 |
CN101770775B (zh) | 2008-12-31 | 2011-06-22 | 华为技术有限公司 | 信号处理方法及装置 |
JP5237465B2 (ja) | 2009-01-16 | 2013-07-17 | ドルビー インターナショナル アーベー | クロス生成物により向上された高調波転換 |
US8457975B2 (en) | 2009-01-28 | 2013-06-04 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Audio decoder, audio encoder, methods for decoding and encoding an audio signal and computer program |
EP2382625B1 (en) | 2009-01-28 | 2016-01-06 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio encoder, audio decoder, encoded audio information, methods for encoding and decoding an audio signal and computer program |
EP2214165A3 (en) | 2009-01-30 | 2010-09-15 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus, method and computer program for manipulating an audio signal comprising a transient event |
EP2645367B1 (en) | 2009-02-16 | 2019-11-20 | Electronics and Telecommunications Research Institute | Encoding/decoding method for audio signals using adaptive sinusoidal coding and apparatus thereof |
ES2374486T3 (es) | 2009-03-26 | 2012-02-17 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Dispositivo y método para manipular una señal de audio. |
KR20100115215A (ko) | 2009-04-17 | 2010-10-27 | 삼성전자주식회사 | 가변 비트율 오디오 부호화 및 복호화 장치 및 방법 |
CA2763793C (en) | 2009-06-23 | 2017-05-09 | Voiceage Corporation | Forward time-domain aliasing cancellation with application in weighted or original signal domain |
CN101958119B (zh) | 2009-07-16 | 2012-02-29 | 中兴通讯股份有限公司 | 一种改进的离散余弦变换域音频丢帧补偿器和补偿方法 |
EP2491555B1 (en) | 2009-10-20 | 2014-03-05 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Multi-mode audio codec |
EP2473995B9 (en) | 2009-10-20 | 2016-12-21 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Audio signal encoder, audio signal decoder, method for providing an encoded representation of an audio content, method for providing a decoded representation of an audio content and computer program for use in low delay applications |
JP5247937B2 (ja) | 2009-10-20 | 2013-07-24 | フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | オーディオ信号符号器、オーディオ信号復号器、エイリアシング消去を用いたオーディオ信号の符号化又は復号化方法 |
CN102081927B (zh) | 2009-11-27 | 2012-07-18 | 中兴通讯股份有限公司 | 一种可分层音频编码、解码方法及*** |
US8423355B2 (en) | 2010-03-05 | 2013-04-16 | Motorola Mobility Llc | Encoder for audio signal including generic audio and speech frames |
US8428936B2 (en) | 2010-03-05 | 2013-04-23 | Motorola Mobility Llc | Decoder for audio signal including generic audio and speech frames |
CN103069484B (zh) | 2010-04-14 | 2014-10-08 | 华为技术有限公司 | 时/频二维后处理 |
TW201214415A (en) | 2010-05-28 | 2012-04-01 | Fraunhofer Ges Forschung | Low-delay unified speech and audio codec |
AR085895A1 (es) | 2011-02-14 | 2013-11-06 | Fraunhofer Ges Forschung | Generacion de ruido en codecs de audio |
ES2529025T3 (es) | 2011-02-14 | 2015-02-16 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Aparato y método para procesar una señal de audio decodificada en un dominio espectral |
-
2012
- 2012-02-13 AR ARP120100471A patent/AR085218A1/es active IP Right Grant
- 2012-02-13 CA CA2827000A patent/CA2827000C/en active Active
- 2012-02-13 BR BR112013020324A patent/BR112013020324B8/pt active IP Right Grant
- 2012-02-13 RU RU2013142135A patent/RU2630390C2/ru active
- 2012-02-13 ES ES12705999.6T patent/ES2539174T3/es active Active
- 2012-02-13 EP EP12705999.6A patent/EP2661745B1/en active Active
- 2012-02-13 PL PL12705999T patent/PL2661745T3/pl unknown
- 2012-02-13 CN CN201280018481.8A patent/CN103620672B/zh active Active
- 2012-02-13 KR KR1020137023692A patent/KR101551046B1/ko active IP Right Grant
- 2012-02-13 TW TW101104539A patent/TWI484479B/zh active
- 2012-02-13 AU AU2012217215A patent/AU2012217215B2/en active Active
- 2012-02-13 JP JP2013553891A patent/JP5849106B2/ja active Active
- 2012-02-13 SG SG2013061197A patent/SG192734A1/en unknown
- 2012-02-13 MX MX2013009301A patent/MX2013009301A/es active IP Right Grant
- 2012-02-13 WO PCT/EP2012/052395 patent/WO2012110447A1/en active Application Filing
- 2012-02-13 MY MYPI2013002964A patent/MY167853A/en unknown
-
2013
- 2013-08-14 US US13/966,536 patent/US9384739B2/en active Active
- 2013-08-29 ZA ZA2013/06499A patent/ZA201306499B/en unknown
-
2014
- 2014-04-22 HK HK14103826.8A patent/HK1191130A1/xx unknown
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0655159A1 (en) * | 1993-06-11 | 1995-05-31 | Telefonaktiebolaget Lm Ericsson | Rejected frame concealment |
WO2003102921A1 (en) * | 2002-05-31 | 2003-12-11 | Voiceage Corporation | Method and device for efficient frame erasure concealment in linear predictive based speech codecs |
JP2007514977A (ja) * | 2003-12-19 | 2007-06-07 | テレフオンアクチーボラゲット エル エム エリクソン(パブル) | 改良された周波数領域におけるエラー隠蔽技術 |
RU2335809C2 (ru) * | 2004-02-13 | 2008-10-10 | Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. | Аудиокодирование |
US20070238415A1 (en) * | 2005-10-07 | 2007-10-11 | Deepen Sinha | Method and apparatus for encoding and decoding |
WO2007073604A1 (en) * | 2005-12-28 | 2007-07-05 | Voiceage Corporation | Method and device for efficient frame erasure concealment in speech codecs |
WO2008056775A1 (fr) * | 2006-11-10 | 2008-05-15 | Panasonic Corporation | Dispositif de décodage de paramètre, dispositif de codage de paramètre et procédé de décodage de paramètre |
US20110007827A1 (en) * | 2008-03-28 | 2011-01-13 | France Telecom | Concealment of transmission error in a digital audio signal in a hierarchical decoding structure |
Also Published As
Publication number | Publication date |
---|---|
CN103620672A (zh) | 2014-03-05 |
ZA201306499B (en) | 2014-05-28 |
TWI484479B (zh) | 2015-05-11 |
MY167853A (en) | 2018-09-26 |
KR101551046B1 (ko) | 2015-09-07 |
BR112013020324A2 (pt) | 2018-07-10 |
KR20140005277A (ko) | 2014-01-14 |
BR112013020324B8 (pt) | 2022-02-08 |
EP2661745A1 (en) | 2013-11-13 |
EP2661745B1 (en) | 2015-04-08 |
JP5849106B2 (ja) | 2016-01-27 |
ES2539174T3 (es) | 2015-06-26 |
CA2827000C (en) | 2016-04-05 |
WO2012110447A1 (en) | 2012-08-23 |
HK1191130A1 (en) | 2014-07-18 |
RU2013142135A (ru) | 2015-03-27 |
TW201248616A (en) | 2012-12-01 |
US9384739B2 (en) | 2016-07-05 |
CA2827000A1 (en) | 2012-08-23 |
AR085218A1 (es) | 2013-09-18 |
AU2012217215A1 (en) | 2013-08-29 |
AU2012217215B2 (en) | 2015-05-14 |
MX2013009301A (es) | 2013-12-06 |
JP2014506687A (ja) | 2014-03-17 |
BR112013020324B1 (pt) | 2021-06-29 |
SG192734A1 (en) | 2013-09-30 |
US20130332152A1 (en) | 2013-12-12 |
CN103620672B (zh) | 2016-04-27 |
PL2661745T3 (pl) | 2015-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
RU2630390C2 (ru) | Устройство и способ для маскирования ошибок при стандартизированном кодировании речи и аудио с низкой задержкой (usac) | |
US10964334B2 (en) | Audio decoder and method for providing a decoded audio information using an error concealment modifying a time domain excitation signal | |
US10283124B2 (en) | Audio decoder and method for providing a decoded audio information using an error concealment based on a time domain excitation signal | |
AU2017206243A1 (en) | Method and apparatus for determining encoding mode, method and apparatus for encoding audio signals, and method and apparatus for decoding audio signals | |
KR20220045260A (ko) | 음성 정보를 갖는 개선된 프레임 손실 보정 |