JP2014507016A - 時間領域符号化モード及び周波数領域符号化モードに対応するオーディオコーデック - Google Patents

時間領域符号化モード及び周波数領域符号化モードに対応するオーディオコーデック Download PDF

Info

Publication number
JP2014507016A
JP2014507016A JP2013553902A JP2013553902A JP2014507016A JP 2014507016 A JP2014507016 A JP 2014507016A JP 2013553902 A JP2013553902 A JP 2013553902A JP 2013553902 A JP2013553902 A JP 2013553902A JP 2014507016 A JP2014507016 A JP 2014507016A
Authority
JP
Japan
Prior art keywords
mode
frame
audio
modes
decoder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013553902A
Other languages
English (en)
Other versions
JP5851525B2 (ja
Inventor
ラルフ・ゲイゲル
コンスタンティン・シュミット
ベルンハルド・グリル
マンフレッド・ルツキー
ミハエル・ヴェルネル
マルク・ガイエル
ヨハネス・ヒルペルト
マリア・ルイス・バレロ
ヴォルフガング・ヤエガルス
Original Assignee
フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン filed Critical フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン
Publication of JP2014507016A publication Critical patent/JP2014507016A/ja
Application granted granted Critical
Publication of JP5851525B2 publication Critical patent/JP5851525B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/028Noise substitution, i.e. substituting non-tonal spectral components by noisy source
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/10Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K11/00Methods or devices for transmitting, conducting or directing sound in general; Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • G10K11/16Methods or devices for protecting against, or for damping, noise or other acoustic waves in general
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/012Comfort noise or silence coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • G10L19/025Detection of transients or attacks for time/frequency resolution switching
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/03Spectral prediction for preventing pre-echo; Temporary noise shaping [TNS], e.g. in MPEG2 or MPEG4
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/06Determination or coding of the spectral characteristics, e.g. of the short-term prediction coefficients
    • G10L19/07Line spectrum pair [LSP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/10Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a multipulse excitation
    • G10L19/107Sparse pulse excitation, e.g. by using algebraic codebook
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • G10L19/13Residual excited linear prediction [RELP]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/22Mode decision, i.e. based on audio signal content versus external parameters
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/06Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being correlation coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Quality & Reliability (AREA)
  • Algebra (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

時間領域符号化モード及び周波数領域符号化モードの両方に対応し、低遅延及びレート/ひずみ率の点で高い符号化効率を有するオーディオコーデックが、オーディオ符号器を異なる動作モードにおいて次のように動作するように構成することによって得られる。活性な動作モードが第1動作モードである場合、利用可能なフレーム符号化モードのモード依存セットが、時間領域符号化モードの第1サブセットに対して分離され、かつ周波数領域符号化モードの第2サブセットと重なり、かつ、活性な動作モードが第2動作モードである場合、利用可能なフレーム符号化モードのモード依存セットが、両方のサブセット、すなわち周波数領域符号化モードのサブセットばかりでなく、時間領域符号化モードのサブセットと重なるように動作する。
【選択図】図1

Description

本発明は、時間領域符号化モード及び周波数領域符号化モードに対応するオーディオコーデック(符号/復号器)に関する。
最近、MPEG−USACコーデックがまとめられた。USAC(Unified speech and audio coding:統一された音声・オーディオ符号化)は、AAC(Advanced audio coding:先進的オーディオ符号化)、TCX(Transform Coded Excitation:変換符号励振)及びACELP(Algebraic Code-Excited Linear Prediction代数符号励振線形予測)の組み合わせを用いてオーディオ信号を符号化するコーデックである。特に、MPEG−USACは、1024サンプルのフレーム長を用い、かつ、1024サンプル又は8×128サンプルのAAC類似フレームと、TCXの1024フレーム又は1フレーム内でのACELPフレーム(256サンプル)、TCXの256フレーム及びTCXの512フレームの組合せとの間での切替えを可能にする。
不利なことに、MPEG−USACコーデックは、低遅延を必要とする応用に適さない。双方向通信の応用は、例えば、そのような短い遅延を必要とする。1024サンプルのUSACフレーム長のために、USACは、これらの低遅延応用に対する候補ではない。
特許文献1では、USACコーデックの符号化モードをTCXモード及びACELPモードだけに制限することによって、USACの手法を低遅延応用に適したものにすることが提案されている。さらに、低遅延応用によって課された低遅延要求に従うように、フレーム構造をより細かくすることが提案されている。
しかしながら、レート/ひずみ率の点から、高い効率で低い符号化遅延を可能にするオーディオコーデックを提供する必要が未だ存在する。好ましくは、コーデックは、音声や音楽のような異なるタイプのオーディオ信号を効率的に扱うことができるべきである。
WO2011/147950
3GPP,"Audio codec processing functions; Extended Adaptive Multi-Rate-Wideband (AMR-WB+)codec; Transcoding functions",2009,3GPP TS 26.290. USAC codec (Unified Speech and Audio Codec),ISO/IEC CD 23003-3 dated September 24,2010.
したがって、本発明の目的は、低遅延応用のための低遅延を提示するオーディオコーデックを、しかも、USACと比較して、例えばレート/ひずみ率の点から高い符復号化効率で提供することである。
この目的は、懸案の独立請求項の主題によって達成される。
本発明の基礎となる基本的概念は、仮にオーディオ符号器が異なる動作モードで動作するように構成される場合には、低遅延とレート/ひずみ率の点で高い符号化効率とを有する、時間領域符号化モード及び周波数領域符号化モードの両方に対応するオーディオコーデックが得られるというものである。その場合、仮に活性な動作モードが第1動作モードである場合、利用可能なフレーム符号化モードのモード依存セットは、時間領域符号化モードの第1サブセットに対して分離され、かつ周波数領域符号化モードの第2サブセットと重なり、これに対して、仮に活性な動作モードが第2動作モードである場合、利用可能なフレーム符号化モードのモード依存セットは、両方のサブセット、すなわち周波数領域符号化モードのサブセットばかりでなく、時間領域符号化モードのサブセットとも重なるようにする。例えば、第1及び第2動作モードのどちらがアクセスされるかについての決定は、データストリームを伝送するための利用可能な伝送ビットレートに依存して、実行されてもよい。例えば、決定の依存度は、より低い利用可能な伝送ビットレートの場合には第2動作モードがアクセスされ、その一方で、より高い利用可能な伝送ビットレートの場合には第1動作モードがアクセスされるというようなものであってもよい。特に、利用可能な伝送ビットレートによって決定されるような符号化環境の場合、符号器に動作モードを供給することによって、符号器が任意の時間領域符号化モードを選択することを防止し、その結果として、長期間基準でレート/ひずみ率の点での符号化効率を考慮すると、任意の時間領域符号化モードを選択したならば、符号化効率の損失を高い確率で引き起こしてしまうような状態を防止することが可能である。より正確に言えば、本願の発明者が見出したことは、(比較的)高い利用可能な伝送帯域幅の場合には、任意の時間領域符号化モードの選択を抑制することが符号化効率の増加に帰着すること、その一方で、短期間基準では、時間領域符号化モードが、周波数領域符号化モードよりも現在のところ好ましいと仮定してもよいが、仮にオーディオ信号を長期間に対して分析する場合、この仮定が正しくないと判明する確率は非常に高いということである。そのような、より長い分析又は先読みは、しかしながら、低遅延応用では可能ではなく、かつ、したがって、符号器が任意の時間領域符号化モードにアクセスするのを防止することは、高い符号化効率の達成を予め可能にする。
本発明の実施形態に従えば、上記の概念は、データストリーム・ビットレートがさらに増加される範囲まで活用される。符号器と復号器の動作モードを同期して制御することは、ビットレートを極めて安価なものとし、又は他の何らかの手段によって同期性が提供される場合には、ビットレートにはいかなるコストもかからないのに対して、符号器及び復号器が動作し、かつ動作モード間を同期して切替わるという事実は、オーディオ信号の連続した部分でのデータストリームの個々のフレームに関連したフレーム符号化モードそれぞれに信号送信することに対する、信号送信の経費を削減するように活用されてもよい。特に、復号器の関連付け装置が、データストリームの連続したフレームの各々の関連付けを、データストリームのフレームに関連したフレームモード構文要素に依存する複数のフレーム符号化モードのモード依存セットの1つに関して実行するように構成されてもよいのに対して、関連付け装置は、活性な動作モードに依存して、関連付け実行の依存度を特に変化させてもよい。特に、依存度の変化は、仮に活性な動作モードが第1動作モードである場合、モード依存セットは第1サブセットに対して分離され、かつ第2サブセットと重なり、かつ、仮に活性な動作モードが第2動作モードである場合、モード依存セットは両方のサブセットと重なるようであってもよい。しかしながら、ビットレートを増加させるあまり厳密でない解は、現在懸案となっている動作モードに関連する環境についての知識を活用することによって、しかしながら、実現可能でもある。
本発明の実施形態の有利な態様は、従属請求項の主題である。
特に、本発明の好ましい実施形態を図を参照しながら、以下にさらに詳細に説明する。
図1は一実施形態によるオーディオ復号器のブロック図を示す。 図2は一実施形態に従う、フレームモード構文要素の可能な値とモード依存セットのフレーム符号化モードとの間の全単写像の模式図を示す。 図3は一実施形態による時間領域復号器のブロック図を示す。 図4は一実施形態による周波数領域符号器のブロック図を示す。 図5は一実施形態によるオーディオ符号器のブロック図を示す。 図6は一実施形態による時間領域符号器及び周波数領域符号器に対する実施形態を示す。
図の記述に関して注目されることであるが、1つの図における要素の記述は、別のやり方で明示的に教示されない場合、別の図におけるそれに関連する同じ参照符号を有する要素に等しく適用されるものとする。
図1は、本発明の実施形態に従うオーディオ復号器10を示す。オーディオ復号器は、時間領域復号器12と周波数領域復号器14とを備えている。さらに、オーディオ復号器10は、データストリーム20の連続したフレーム18a−18cの各々を、複数のフレーム符号化モード22のモード依存セットの中の1つに関連付けるように構成された関連付け装置16を備えており、これら複数のフレーム符号化モードは、図1にA、B及びCとして典型的に例示されている。3つより多くののフレーム符号化モードがあってもよく、かつ数は、したがって、3つから他の数に変えられてもよい。各フレーム18a−18cは、オーディオ復号器がデータストリーム20から再構築することになっているオーディオ信号26の連続した部分24a−24cに対応する。
より正確に言えば、関連付け装置16は、以下でより詳細に説明される方法において、フレーム18a−18cに関連付けられるのと同じものを提供するように、復号器10の入力28、時間領域復号器12及び周波数領域復号器14の入力との間に接続されている。
時間領域復号器12は複数のフレーム符号化モード22の1つ以上の第1サブセット30の関連付けられた1つを有するフレームを復号化するように構成され、かつ周波数領域復号器14は複数のフレーム符号化モード22の1つ以上の第2サブセット32の関連付けられた1つを有するフレームを復号化するように構成されている。
図1に例示されるように、第1及び第2サブセットはお互いに分離されている。より正確に言えば、時間領域復号器12は、関連付けられたフレーム符号化モードの第1サブセット30の1つを有するフレームに対応するオーディオ信号26の再構築された部分24a−24cを出力するように出力を有し、かつ周波数領域復号器14は、関連付けられたフレーム符号化モードの第2サブセット32の1つを有するフレームに対応するオーディオ信号26の再構築された部分を出力するための出力を備えている。
図1に示されるように、オーディオ復号器10は、好みに応じて、コンバイナ34を有してもよく、コンバイナ34は時間領域復号器12及び周波数領域復号器14の出力と復号器10の出力36との間に接続されている。特に、部分24a−24cはお互いに重ならないが時間tに関してお互いに直ちに続いて起こることを図1は示唆しており、この場合にはコンバイナ34は無くても可能であろう。しかし、少なくとも部分的には、部分24a−24cが時間tに関して連続し、例えば周波数領域復号器14によって使用される重複変換に関して時間エイリアシング相殺が含まれることを許可するためのように、部分的にはお互いに重なっていることも可能である。例えば、続いて説明される、周波数領域復号器14のより詳細な実施形態の場合がそれに当てはまる。
図1の実施形態の記述についてさらに進める前に、図1に例示されたAからCのフレーム符号化モードの数は、単に例証的であることに注目するべきである。図1のオーディオ復号器は、3つより多くのの符号化モードに対応してもよい。以下では、サブセット32のフレーム符号化モードは周波数領域符号化モードと呼ばれ、これに対して、サブセット30のフレーム符号化モードは時間領域符号化モードと呼ばれる。関連付け装置16は、任意の時間領域符号化モード30のフレーム15a−15cを時間領域復号器12へ転送し、かつ任意の周波数領域符号化モードのフレーム18a−18cを周波数領域復号器14へ転送する。コンバイナ34は、時間領域復号器12及び周波数領域復号器14による出力としてのオーディオ信号26の再構築された部分を、図1に示されるように、時間tに関して連続的に配列されるように、正確に登録する。好みに応じて、コンバイナ34は、周波数領域符号化モード部分24の間で重複加算機能を実行してもよく、又は周波数領域復号器14によって出力される部分の間でエイリアシング相殺を実行するために、直ちに連続する部分の間の遷移期に、重複加算機能のような他の特定の措置を実行してもよい。転送のエイリアシング相殺は、時間領域復号器12及び周波数領域復号器14によって別々に出力される直ちに続いて起こる部分24a−24cの間で、すなわち周波数領域符号化モード部分24から時間領域符号化モード部分24への、及びその逆の遷移期に対して実行されてもよい。可能な実施に関するさらなる詳細については、さらに以下で説明されるより詳細な実施形態が参照される。
以下でより詳細に概説されるであろうが、関連付け装置16は、データストリーム20の連続するフレーム18a−18cの関連付けをAからCのフレーム符号化モードにより実行するように構成されているが、その方法においては、時間領域符号化モードの使用が回避される場合がある。それは、高い利用可能伝送ビットレートの場合のようにそのような時間領域符号化モードの使用が不適当な場合であり、例えば周波数領域符号化モードと比較して、レート/ひずみ率の点で、時間領域符号化モードが不十分である可能性があり、その結果、時間領域フレーム符号化モードが、あるフレーム18a−18cに対して、符号化効率の減少につながる可能性が非常に高くなってしまうような場合である。
したがって、関連付け装置16は、データストリーム20におけるフレーム18a−18cに関連するフレームモード構文要素に依存するフレーム符号化モードに対して、フレームの関連付けを実行するように構成されている。例えば、データストリーム20の構文は、各フレーム18a−18cが、対応するフレーム18a−18cが属するフレーム符号化モードを決定するためのそのようなフレームモード構文要素38を備えるように構成され得るであろう。
さらに、関連付け装置16は、複数の動作モードの活性な1つにおいて動作するように、又は複数の動作モードから現在の動作モードを選択するように構成される。関連付け装置16は、データストリームに依存して、又は外部制御信号に依存して、この選択を実行してもよい。例えば、以下でより詳細に概説されるであろうが、復号器10は、符号器での動作モード変化に同期してその動作モードを変化させ、かつその同期性を実施するために、符号器は活性な動作モードと動作モードの活性な1つにおける変化をデータストリーム20内に信号送信してもよい。代わりに、符号器及び復号器10は、EPS又はRTPなどのようなより低いトランスポート層によって提供される制御信号のような何らかの外部制御信号によって、同期的に制御されてもよい。外部的に提供される制御信号は、例えばいくらかの利用可能な伝送ビットレートを表すものであってもよい。
上で概説されたような時間領域符号化モードの不適切な選択又は不適切な使用を回避することを実証する又は実現するために、関連付け装置16は、活性な動作モードに依存する符号化モードに対して、フレーム18の関連付け実行の依存度を変化させるように構成されている。特に、仮に活性な動作モードが第1動作モードである場合、複数のフレーム符号化モードのモード依存セットは、例えば符号40で示されたものであり、これは第1サブセット30に対して分離され、かつ第2サブセット32と重なる。これに対して、仮に活性な動作モードが第2動作モードである場合、モード依存セットは、例えば図1において符号42で示されるようなものとなり、これは第1サブセット30及び第2サブセット32と重なる。
すなわち、図1の実施形態に従って、オーディオ復号器10は、第1動作モードと第2動作モードとの間でその活性な動作モードを変化させるように、データストリーム20又は外部制御信号を介して制御可能であり、これによって、フレーム符号化モードの動作モード依存セットを、したがって、すなわち40と42との間で変化させる。その結果、一方の動作モードに従って、モード依存セット40は時間領域符号化モードのセットに対して分離されるが、これに対して、他方の動作モードでは、モード依存セット42は、少なくとも1つの周波数領域符号化モードだけでなく、少なくとも1つの時間領域符号化モードを含む。
関連付け装置16の関連付け実行の依存度における変化をより詳細に説明するために、図2を参照する。図2はデータストリーム20からのフラグメントを典型的に示し、フラグメントは、図1のフレーム18a−18cのある1つに関連付けられたフレームモード構文要素38を含む。この点において、簡単にいえば、図1に例示されたデータストリーム20の構造は、単に例証目的のために適用されており、異なる構造が同様に適用されてもよい。例えば、図1におけるフレーム18a−18cは、その間に割込みのない単純に接続された部分、又はデータストリーム20の連続部分として示されてはいるが、そのような割込みが同様に適用されてもよい。そのうえ、フレームモード構文要素38は、それが参照するフレーム内に含まれることを図1は示唆してはいるが、これは必ずしもそうであるとは限らない。むしろ、フレームモード構文要素38は、データストリーム20内であるが、フレーム18a−18cの外側に位置付けられていてもよい。さらに、データストリーム20内に含まれるフレームモード構文要素38の数は、データストリーム20の中のフレーム18a−18cの数に等しい必要はない。むしろ、図2のフレームモード構文要素38は、例えばデータストリーム20の中のフレーム18a−18cの1より多くと関連付けられていてもよい。
いずれの場合も、フレームモード構文要素38がデータストリーム20の中に挿入された方法に従って、データストリーム20に含まれて伝送されたフレームモード構文要素38と、フレームモード構文要素38の可能な値のセット46との間に、写像44が存在する。例えば、フレームモード構文要素38は、データストリーム20の中に直接挿入されてもよく、すなわち、例えばPCMのような2進法表現を用い、又は可変長符号を用い、及び/又は、ハフマン(Huffman)又は算術符号化のようなエントロピー符号化を用いて挿入されてもよい。したがって、関連付け装置16は、復号化48などによって、可能な値のセット46の任意のもの引き出すように、データストリーム20からフレームモード構文要素38を抽出するように構成することができる。ここで、セット46の可能な値は、図2において小さな三角形によって象徴的に例示されている。データストリーム20へのフレームモード構文要素38の挿入50は、符号器側において符号化などによって対応して行われる。
すなわち、フレームモード構文要素38がとるであろう可能な値の各々、つまり、フレームモード構文要素38の可能な値の範囲46内での可能な値の各々は、複数のフレーム符号化モードA、B及びCのある1つと関連付けられている。特に、セット46の可能な値とフレーム符号化モードのモード依存セットとの間で全単写像が存在する。図2で双頭の矢52によって例示される写像は、活性な動作モードに依存して変化する。全単写像52は、活性な動作モードに依存して写像52を変化させる関連付け装置16の機能の一部である。図1に関して説明されるように、図2に例示された第2動作モードの場合には、モード依存セット40又は42は両フレーム符号化モード・サブセット30、32と重なるが、第1動作モードの場合には、モード依存セットはサブセット30に対して分離され、すなわち、サブセット30のいかなる要素も含まない。言い換えれば、全単写像52は、フレームモード構文要素38の可能な値のドメイン(domain)を、モード依存セット50及び52と呼ばれる、フレーム符号化モードのコドメイン(co-domain)上にそれぞれ写像する。セット46の可能な値に対して三角形の実線を使用して図1及び図2に例示されるように、全単写像52のドメインは、両方の動作モードの中で同じままであってもよく、すなわち、第1及び第2動作モードのままであってもよく、一方で、上で例示されかつ説明されたように、全単写像52のコドメインは変化する。
しかしながら、セット46内の可能な値の数は、変化さえしてもよい。これは、図2において破線で描かれた三角形によって示される。より正確に言えば、利用可能なフレーム符号化モードの数は、第1動作モードと第2動作モードとの間で異なっていてもよい。そうであるならば、しかしながら、いずれの場合にも、関連付け装置16は依然として全単写像52のコドメインが上で概説された通りに振舞うように実行される。すなわち、第1動作モードが活性である場合、モード依存セットとサブセット30との間で重なりはない。
別の言い方をすれば、次のことがいえる。内部的には、フレームモード構文要素38は、ある2進値によって表されてもよく、その可能な値の範囲は、現在活性な動作モードに依存しない可能な値のセット46を含む。さらに正確に言えば、関連付け装置16は、内部的には、フレーム構文要素38の値を2進法表現の2進値で表す。この2進値を用いて、セット46の可能な値は、順序尺度に分類され、その結果、セット46の可能な値は、動作モードの変化の場合でさえも、お互いに対等なままである。この順序尺度に従うセット46の第1の可能な値は、例えばセット46の可能な値の中で最も高い確率に関連付けられたものとして定義されてもよく、セット46の可能な値の第2の可能な値は、次に低い確率に関連付けられたものというように、連続的に定義される。したがって、フレームモード構文要素38の可能な値は、動作モードの変化にもかかわらず、このように、お互いに対等である。後の例では、全単写像52のドメイン及びコドメイン、すなわち、可能な値のセット46及びフレーム符号化モードのモード依存セットは、活性な動作モードが第1及び第2動作モードの間で変化するにもかかわらず、同じままであり、しかし全単写像52は、モード依存セットのフレーム符号化モードとセット46の対等な可能な値との間で関連付けを変化させる。後の実施形態では、図1の復号器10は、符号器を依然として利用することができるが、この符号器は、続いて説明される実施形態に従って、すなわち第1動作モードの場合に、不適切な時間領域符号化モードを選択するのを差し控えることによって働く。第1動作モードの場合、セット46のより確からしい可能な値だけを周波数領域符号化モード32と関連付けることによって、一方で第1動作モードの間だけ、時間領域符号化モード30に対して、セット46のより低く確からしい可能な値を用いながら、また一方で第2動作モードの場合に、この方針を変化させることは、仮にフレームモード構文要素38をデータストリーム20の中に挿入するために、又はデータストリーム20からフレームモード構文要素38を抽出するためにエントロピー符号化を用いる場合、データストリーム20に対するより高い圧縮率に帰着する。言い換えれば、第1動作モードにおける間、どの時間領域符号化モード30も、任意の周波数領域符号化モード32の上に写像52によって写像された可能な値に対する確率よりも高い確率を、それに関連付けてきたセット46の可能な値に関連付けられなくともよく、そのような場合は第2動作モードにおいて存在し、そこでは、少なくとも1つの時間領域符号化モード30が、写像52に従って、周波数領域符号化モード32に関連付けられる別の可能な値よりもより高い確率をそれに関連付けてきた、そのような可能な値に関連付けられる。
可能な値46と関連付けられ、かつ好みに応じて符号化/復号化のために同様に用いられる、今述べられたばかりの確率は、静的であっても、又は適応して変化させられてもよい。確率推定の異なるセットは、異なる動作モードに対して使用されてもよい。適応して確率を変化させる場合には、コンテキスト適応性のあるエントロピー符号化が使用されてもよい。
図1に例示されるように、関連付け装置16のための好ましい実施形態は、関連付け実行の依存度が、活性な動作モードに依存するようなものであり、かつフレームモード構文要素38は、データストリーム20の中に符号化され、かつデータストリーム20から復号化され、その結果、セット46内で多数の区別しうる可能な値は、第1又は第2動作モードである活性な動作モードに依存しない。特に、図1の場合、区別しうる可能な値の数は2であり、実線を有する三角形を考慮すると、図2にもまた例示されている。その場合、例えば、仮に活性な動作モードが第1動作モードであるとすると、モード依存セット40は、フレーム符号化モードの第2サブセット32の第1フレーム符号化モードAと第2フレーム符号化モードBとを備えるように、関連付け装置16が構成され、かつ、これらのフレーム符号化モードを実行する周波数領域復号器14は、第1フレーム符号化モードA及び第2フレーム符号化モードBのうちの関連付けられた1つを有するフレームを復号化する際に、異なる時間領域分解能を用いるように構成されている。この措置によって、例えばデータストリーム20内のフレームモード構文要素38を直接伝送するには、1ビットで十分であろう、すなわち、任意のさらなるエントロピー符号化なしに、ここでは、第1動作モードから第2動作モードへの変化及びその逆の変化に対して、全単写像52が変化するだけである。
図3及び図4に関して以下ではより詳細に概説されるであろうが、時間領域復号器12は、符号励振線形予測復号器であってもよく、かつ周波数領域復号器は、データストリーム20の中に符号化された変換係数レベルに基づいて、関連付けられたフレーム符号化モードの任意の第2サブセットを有するフレームを復号化するように構成された変換復号器であってもよい。
例えば、図3を参照されたい。図3は、時間領域復号器12及び時間領域符号化モードに関連付けられたフレームの例を示し、この結果として、時間領域符号化モードに関連付けられたフレームが時間領域復号器12を通過して、再構築されたオーディオ信号26の対応する部分24が作り出される。図3の実施形態に従って、かつ後で説明されるべき図4の実施形態に従って、周波数領域復号器ばかりでなく、時間領域復号器12も、データストリーム12から各フレームに対する線形予測フィルタ係数を得るように構成された線形予測に基づいた復号器である。各フレーム18は、その中に組み込まれた線形予測フィルタ係数16を有してもよいことを、図3及び図4は示唆してはいるが、これは必ずしもそうであるとは限らない。線形予測係数60がデータストリーム12内で伝送されるLPC伝送レートは、フレーム18のフレームレートと等しくてもよく、又はそれと異なってもよい。それにもかかわらず、符号器及び復号器は、LPC伝送レートからLPCアプリケーション・レート上に内挿することによって、各フレームに個々に関連付けられた線形予測フィルタ係数と同期して動作してもよく、又は線形予測フィルタ係数を適用してもよい。
図3に示されるように、時間領域復号器12は、線形予測合成フィルタ62と励振信号構築器64とを備えてもよい。図3に示されるように、線形予測合成フィルタ62は、現在の時間領域符号化モードフレーム18に対してデータストリーム12から得られた線形予測フィルタ係数を供給される。励振信号構築器64は、現在復号化されているフレーム18(時間領域符号化モードをこれに関連させた)に対してデータストリーム12から得られた符号ブック索引66のような励振パラメータ又は符号を供給される。励振信号構築器64及び線形予測合成フィルタ62は、合成フィルタ62の出力に、再構築された対応するオーディオ信号部分24を出力するように、直列に接続されている。特に、励振信号構築器64は、励振パラメータ66を用いて励振信号68を構築するように構成されている。励振パラメータ66は、図3に示されるように、現在復号化されたフレーム内に含まれてもよく、そのフレームはそれに関連付けられた任意の時間領域符号化モードを有する。励振信号68は一種の残差信号であり、これのスペクトル包絡線は、線形予測合成フィルタ62によって形成される。特に、線形予測合成フィルタは、オーディオ信号26の再構築された部分24を作り出すように、現在復号化されたフレーム(これに関連付けられた任意の時間領域符号化モードをもっている)に対してデータストリーム20内で伝達される線形予測フィルタ係数によって制御される。
図3のCELP復号器の可能な実施に関するさらなる詳細については、例えば上述のUSAC(非特許文献2参照。)又はAMR−WB+コーデック(非特許文献1参照。)のような既知のコーデックが参照される。後者のコーデックによれば、図3のCELP復号器はACELP復号器として実施されてもよく、それによれば、励振信号68は、符号/パラメータで制御された信号、すなわち革新励振、と連続的に更新された適応型励振を組み合わせることによって形成されるが、連続的に更新された適応型励振は、現在復号化される時間領域符号化モードフレーム18に対して、データストリーム12内でやはり伝達される適応型励振パラメータに従って、直接先行する時間領域符号化モードフレームに対して、最終的に得られかつ印加された励振信号を修正することに起因する。適応型励振パラメータは、例えばピッチ遅延及び利得を定義してもよく、このために、現在のフレームに対して適応型励振を得るように、ピッチ及び利得の向きにおいて過去の励振をいかに修正するかを規定する。革新励起は、現在のフレーム内の符号66に由来してもよく、そこでは符号が、パルスの数及び励振信号内でのそれらの位置を定義する。符号66は、符号ブック照合のために使用されてもよく、又は、そうでなければ、論理的に又は算術的に、例えば数及び位置の点から革新励振のパルスを定義する。
同様に図4は、周波数領域復号器14のための可能な実施形態を示す。図4は、周波数領域復号器14に入る現在のフレーム18を示し、フレーム18は、それに関連付けられた任意の周波数領域符号化モードを有する。周波数領域復号器14は、周波数領域ノイズ整形器70を備え、これの出力は再変換器72に接続されている。再変換器72の出力は、今度は、周波数領域復号器14の出力であり、現在復号化されてきたフレーム18に対応するオーディオ信号の再構築された部分を出力する。
図4に示されるように、データストリーム20は、関連付けられた任意の周波数領域符号化モードを有するフレームに対して、変換係数レベル74及び線形予測フィルタ係数76を伝達してもよい。線形予測フィルタ係数76は、関連付けられた任意の時間領域符号化モードを有するフレームに関連付けられた線形予測フィルタ係数と同じ構造を有してもよく、変換係数レベル74は、変換領域において周波数領域フレーム18に対して励振信号を表すためのものである。USACから既知であるように、例えば変換係数レベル74は、スペクトル軸に沿って差分をとるように符号化されてもよい。変換係数レベル74の量子化精度は、共通のスケール因子又は利得因子によって制御されてもよい。スケール因子は、データストリームの一部分であり、変換係数レベル74の一部分であると仮定される。しかしながら、他の任意の量子化方式が、同様に使用されてもよい。変換係数レベル74は、周波数領域ノイズ整形器70に供給される。同じことが、現在復号化される周波数領域フレーム18のための線形予測フィルタ係数76に当てはまる。周波数領域ノイズ整形器70は、その後、変換係数レベル74から励振信号の励振スペクトルを得るように、かつ線形予測フィルタ係数76に従ってスペクトル的にこの励振スペクトルを整形するように構成されている。より正確に言えば、周波数領域ノイズ整形器70は、励振信号のスペクトルを作り出すために、変換係数レベル74を逆量子化(dequantize)するように構成されている。その後、周波数領域ノイズ整形器70は、線形予測フィルタ係数76によって定義された線形予測合成フィルタの伝達関数に対応するように、線形予測フィルタ係数76を重み付けスペクトルの中に転換する。この転換は、LPCをスペクトル重み付け値に変えるように、LPCに適用されたODFTを含んでもよい。さらなる詳細は、USAC標準から得ることができる。重み付けスペクトルを用いて、周波数領域ノイズ整形器70は、変換係数レベル74によって得られる励振スペクトルを整形するか、又は重み付けし、これによって、励振信号スペクトルを得る。整形/重み付けによって、変換係数を量子化することによって符号器側で導入された量子化ノイズは、知覚的にそれほど著しくないように整形される。再変換器72は、その後、復号化されたばかりのフレーム18に対応する再構築された部分を得るように、周波数領域ノイズ整形器70による出力としての整形された励振スペクトルを再変換する。
既に上で述べたように、図4の周波数領域復号器14は、種々の符号化モードに対応する。特に周波数領域復号器14は、関連付けられた異なる周波数領域符号化モードを有する周波数領域フレームを復号化する際、異なる時間−周波数分解能を適用するように構成されていてもよい。例えば再変換器72によって実行される再変換は、重複変換であってもよく、この重複変換に従って、変換されるべき、連続したかつ相互に重なる信号の窓部分は、個々の変換に細分化され、ここで再変換72は、これらの窓部分78a、78b及び78cの再構築を引き起こす。コンバイナ34は、既に上で注目されたように、例えば重複加算プロセスによって、これらの窓部分の重なりで起こるエイリアシングを相互に補償するすることができる。重複変換又は再変換器72の重複再変換は、時間エイリアシング相殺を必要とする、例えば決定的な方法でサンプリングされた変換/再変換であってもよい。例えば再変換器72は、逆MDCTを実行してもよい。いずれの場合も、周波数領域符号化モードA及びBは、例えば次の点でお互いに異なる。すなわち、現在復号化されるフレーム18に対応する部分18は、1つの窓部分78によって扱われ、さらに先行する部分及び後に続く部分に伸び、それによって、フレーム18内に変換係数レベル74の1つのより大きなセットを作り出すか、又は2つの連続した窓副部分78c及び78bに伸び、相互に重なり、かつ先行する部分及び後に続く部分にそれぞれ伸び、かつ重なり合い、それによって、フレーム18内に変換係数レベル74の2つのより小さなセットを作り出すかのいずれかである。したがって、復号器及び周波数領域ノイズ整形器70及び再変換器72は、モードAのフレームに対して、例えば2つの動作、整形及び再変換、を実行してもよいのに対し、例えばフレーム符号化モードBのフレームに対してはフレームあたり1つの動作を決められた通りに実行する。
上で説明されたオーディオ復号器のための実施形態は、オーディオ符号器を利用するために特別に設計されたが、このオーディオ符号器は異なる動作モードで動作し、すなわち、それによって、これらの動作モード間でフレーム符号化モードの中での選択を変化させ、その結果として、時間領域フレーム符号化モードが、これらの動作モードの一方で選択されず、しかし他方でのみ選択される。しかしながら、注目されるべきことであるが、以下で説明されるオーディオ符号器のための実施形態はまた、少なくともこれらの実施形態のサブセットに関する限り、異なる動作モードに対応しないオーディオ復号器にも適合するであろう。これは、これらの符号器の実施形態にとって少なくとも真実であり、これらの符号器の実施形態によれば、データストリームの生成は、これらの動作モードの間では変化しない。言い換えれば、以下で説明されるオーディオ符号器のためのいくつかの実施形態に従えば、フレーム符号化モードの選択を動作モードの1つにおける周波数領域符号化モードに限定することは、それ自体をデータストリーム12内に反映せず、データストリーム12では、動作モード変化は、その限りにおいて、(これらの動作モードの1つが活性である間、時間領域フレーム符号化モードが存在しないことを除いて)明白である。しかしながら、上で概説された様々な実施形態に従う特別に専用のオーディオ復号器は、上で概説されたオーディオ符号器のためのそれぞれの実施形態と共に、オーディオコーデックを形成し、これは、上で概説したように、例えば特別な伝送条件に対応する特別な動作モードの間、フレーム符号化モード選択制限を付加的に利用する。
図5は、本発明の実施形態によるオーディオ符号器を示す。図5のオーディオ符号器は、全体が符号100で示され、かつ関連付け装置102と、時間領域符号器104と、周波数領域符号器106とを備えている。関連付け装置102はオーディオ符号器100の入力108と時間領域符号器104の入力及び周波数領域符号器106の入力との間に接続されている。時間領域符号器104の出力及び周波数領域符号器106の出力は、オーディオ符号器100の出力110に接続されている。したがって、図5において符号112で示された符号化されるべきオーディオ信号は、入力108に入り、オーディオ符号器100は、そこからデータストリーム114を形成するように構成されている。
関連付け装置102は、オーディオ信号112の連続する部分116a−116c(前述部分24に対応する)の各々を、複数のフレーム符号化モードのモード依存セットの中の1つと関連付けるように構成されている(図1から図4の40及び42を参照されたい)。
時間領域符号器104は、複数のフレーム符号化モード22の1つ以上の第1サブセット30の関連付けられた1つを有する部分116a−116cを、データストリーム114の対応フレーム118a−118cの中に符号化するように構成されている。周波数領域符号器106は、セット32の関連付けられた任意の周波数領域符号化モードを有する部分を、データストリーム114の対応フレーム118a−118cの中に符号化することに対して同様に機能する。
関連付け装置102は、複数の動作モードの活性な1つで動作するように構成されている。より正確に言えば、関連付け装置102は、複数の動作モードの1つが確かに活性でなければならないが、しかし複数の動作モードの活性な1つの選択は、オーディオ信号112の部分116a−116cを連続して符号化する間に変わってもよいように構成されている。
特に関連付け装置102は以下のように構成され、具体的には、仮に活性な動作モードが第1動作モードである場合、モード依存セットは図1のセット40のように振舞い、すなわち、モード依存セットは第1サブセット30に対して分離され、かつ第2サブセット32と重なるが、しかし、仮に活性な動作モードが第2動作モードである場合、複数の符号化モードのモード依存セットは、図1のモード42のように振舞い、すなわち、モード依存セットは第1サブセット30及び第2サブセット32と重なる。
上で概説されるように、図5のオーディオ符号器の機能によって、符号器100を外部的に制御することが可能になり、その結果、符号器が時間領域フレーム符号化モードを不利に選択することが防がれる。その不利な選択とは、選択を周波数領域フレーム符号化モードだけに制限することと比べたとき、時間領域フレーム符号化フレームを選択したとすれば、レート/ひずみ率の点でより低い符号化効率を引き起こす確率が高くなってしまうような、伝送条件などの外部条件であるにもかかわらず、時間領域フレーム符号化モードを選択することである。図5に示されるように、関連付け装置102は、例えば外部制御信号120を受信するように構成されている。関連付け装置102は、例えばある外部構成要素に接続されていてもよく、その結果、その外部構成要素によって供給される外部制御信号120が、データストリーム114の伝送のための利用可能な伝送バンド幅を示す。この外部構成要素は、例えばOSI階層モデルの点でより低いような、根本的なより低い伝送階層の一部であってもよい。例えば、外部構成要素は、LTE通信網の一部であってもよい。信号122は、当然、実際の利用可能な伝送帯域幅の推定又は平均の将来利用可能な伝送帯域幅の推定に基づいて設定してもよい。図1から図4に関して既に上で注目されたように、「第1動作モード」は、ある一定の閾値よりも低い利用可能な伝送帯域幅に関連付けられてもよく、これに対して、「第2動作モード」は、所定の閾値を超える利用可能な伝送帯域幅に関連付けられてもよい。これによって、不適切な条件では符号器100が任意の時間領域フレーム符号化モードを選択することを防ぐが、この不適切な条件では、すなわち仮に利用可能な伝送帯域幅がある閾値よりも低い場合に、時間領域符号化が、より非能率的な圧縮を引き起こす可能性が非常に高い。
しかしながら、注目すべきことであるが、制御信号120はまた、例えば再構築されるべきオーディオ信号、すなわち112を解析する音声検出器のような何らかの他の構成要素によって提供されてもよい。その場合、音声相、すなわち時間間隔(この間ではオーディオ信号112内のスピーチ成分が優勢である)と、非音声相(ここではオーディオ信号112内で音楽などのような他のオーディオ源が優勢である)との間で見分けがつけられる。制御信号120は、音声相と非音声相におけるこの変化を示してもよく、かつ関連付け装置102は、したがって動作モード間で変わるように構成されていてもよい。例えば音声相では関連付け装置102は前述の「第2動作モード」に入り、「第1動作モード」が非音声相と関連付けられることが可能であろう。これにより、非音声相で時間領域フレーム符号化モードを選択すると、効率的でない圧縮に帰着する可能性が非常に高いという事実に従うことができる。
関連付け装置102は、フレームモード構文要素122(図1における構文要素38を比較のこと)をデータストリーム114の中に符号化するように構成されていてもよく、それによって、各部分116a−116cに対して、複数のフレーム符号化モードのどのフレーム符号化モードに、それぞれの部分が関連付けられるかが示されるが、その一方で、図1から図4のフレームモード構文要素38を有するデータストリーム20を作り出すために、このフレームモード構文要素122をデータストリーム114の中に挿入することは、動作モードに依存しなくてもよい。上で既に注目されたように、データストリーム114のデータストリーム生成は、現在活性な動作モードと無関係に実行されてもよい。
しかしながら、ビットレート経費の点では、仮にデータストリーム114が、図1から図4の実施形態に関して上で議論されたデータストリーム20を作り出すように、図5のオーディオ符号器100によって生成され、それらの実施形態に従って、データストリーム生成が、有利なことに現在活性な動作モードに適合されるのであれば、それは好ましいとされるべきである。
したがって、図1から図4に関してオーディオ復号器のために上で説明された実施形態に適合する図5のオーディオ符号器100の実施形態に従えば、関連付け装置102は、フレームモード構文要素122をデータストリーム114の中に符号化するように構成され、その際、それぞれの部分116a−116cに関連付けられたフレームモード構文要素122の可能な値のセット46とフレーム符号化モードのモード依存セットとの間で全単写像52を用い、この全単写像52が活性な動作モードに依存して変化する。特に、その変化は以下のようなものであってもよく、具体的には、仮に活性な動作モードが第1動作モードである場合、モード依存セットはセット40のように振舞い、すなわちモード依存セットは第1サブセット30に対して分離され、かつ第2サブセット32と重なり、これに対して、仮に活性な動作モードが第2動作モードである場合、モード依存セットはセット42のようであり、すなわち、それは第1サブセット30と第2サブセット32の両方と重なる。特に、既に上で注目されたように、第1又は第2動作モードである活性な動作モードとは無関係に、セット46における可能な値の数は2であり、かつ関連付け装置102は次のように構成されてもよく、具体的には、仮に活性な動作モードが第1動作モードである場合、モード依存セットは周波数領域フレーム符号化モードA及びBを備え、かつ周波数領域符号器106は、モードA又はモードBであるそれらのフレームに依存して、それぞれの部分116a−116cを符号化する際、異なる時間−周波数分解能を用いるように構成されていてもよい。
図6は、既に上で注目された事実に対応する時間領域符号器104及び周波数領域符号器106の可能な実施のための実施形態を示す。この実施形態によれば、符号励振された線形予測符号化が、時間領域フレーム符号化モードに対して使用されてもよく、その一方で、変換符号化された励振線形予測符号化が周波数領域符号化モードに対して使用される。したがって、図6によれば、時間領域符号器104は符号励振された線形予測符号器であり、周波数領域符号器106は、関連付けられた任意の周波数領域フレーム符号化モードを有する部分を、変換係数レベルを用いて符号化し、データストリーム114の対応フレーム118a−118cの中に入れるように構成された変換符号器である。
時間領域符号器104及び周波数領域符号器106に対する可能な実施を説明するために、図6が参照される。図6によれば、周波数領域符号器106及び時間領域符号器104は、LPCアナライザ130を共同所有、又は分担する。しかしながら、注目されるべきことであるが、この環境は本実施形態にとって重大なものではなく、かつ異なる実施も可能であり、異なる実施によれば、符号器104及び106は、お互いに完全に切り離される。そのうえ、図1及び図4に関して上で説明された復号器の実施形態ばかりでなく、符号器の実施形態に関しても、本発明は、両方の符号化モード、すなわち時間領域フレーム符号化モードばかりでなく、周波数領域フレーム符号化モードも、線形予測に基づいているという場合に限定されないことは注目すべきである。むしろ、符号器及び復号器の実施形態はまた、時間領域符号化及び周波数領域符号化のいずれか1つが異なる方法で実施される他の場合に転じることが可能である。
図6の記述に戻ると、周波数領域符号器106は、LPCアナライザ130の他に、変換器132と、LPCから周波数領域への重み付け転換器134と、周波数領域ノイズ整形器136と、量子化器138とを備えている。変換器132、周波数領域ノイズ整形器136及び量子化器138は、共通入力140と周波数領域符号器106の出力142との間で直列に接続されている。LPC転換器134は、LPCアナライザ130の出力と周波数領域ノイズ整形器136の重み付け入力との間に接続されている。LPCアナライザ130の入力は、共通入力140に接続されている。
時間領域符号器104に関しては、時間領域符号器104は、LPCアナライザ130の他に、LPC解析フィルタ144と、符号に基づく励振信号近似器146とを備え、これらは両方とも、共通入力140と時間領域符号器104の出力148との間で直列に接続されている。LP解析フィルタ144の線形予測係数入力は、LPCアナライザ130の出力に接続されている。
入力140に入るオーディオ信号112を符号化する際に、LPCアナライザ130は、オーディオ信号112の各部分116a−116cに対して線形予測係数を連続的に決定する。LPC決定は、連続した(重なっているか、又は重なっていない)オーディオ信号の窓部分の自己相関決定を含んでもよく、その自己相関の結果(好みに応じて、前もって自己相関に遅延ウィンドウ処理を施す)に(ウィーナー)レヴィソン−ダービン[(Wiener-)Levison-Durbin)]・アルゴリズム又はシュール(Schur)・アルゴリズムなどを用いるようなLPC推定を実行する。
図3及び図4に関して説明されるように、LPCアナライザ130は、フレーム118a−118cのフレームレートに等しいLPC伝送レートで、データストリーム114内の線形予測係数に必ずしも信号送信しない。そのレートよりも一層高いレートが、使用されてもよい。一般に、LPCアナライザ130は、LPC情報60及び76を、自己相関の上述のレートによって定義されるLPC決定レートで決定してもよく、そのレートは例えばLPC決定の基になるレートである。その後、LPCアナライザ130は、LPC決定レートよりも恐らく低いLPC伝送レートで、LPC情報60及び76をデータストリームの中に挿入してもよい。そして、TD符号器104及びFD符号器106は、今度は、線形予測係数をLPC伝送レートよりも高いLPCアプリケーション・レートで更新しながら、線形予測係数を適用するが、これは、伝送されたLPC情報60及び76をデータストリーム114のフレーム118a−118c内に内挿することによって行われる。特にFD符号器106及びFD復号器は、変換あたり一回、LPC係数を適用するので、FDフレーム内のLPCアプリケーション・レートは、TD符号器/復号器において適用されるLPC係数がLPC伝送レートから内挿することによって適合される/更新されるレートよりも低くてもよい。その内挿はまた、復号化側で同期的に実行されてもよいので、一方で時間領域符号器及び周波数領域符号器に対して、かつ他方で時間領域復号器及び周波数領域復号器に対して、同じ線形予測係数が利用可能である。いずれの場合も、LPCアナライザ130は、フレームレートに等しいか又はフレームレートよりも高いあるLPC決定レートでオーディオ信号112に対する線形予測係数を決定し、かつ同じ線形予測係数をデータストリームの中に、恐らくLPC決定レートに等しいか又はそれよりも低いLPC伝送レートで挿入する。LP解析フィルタ144は、しかしながら、LPC伝送レートよりも高いLPCアプリケーション・レートでLPC解析フィルタを更新するように、内挿してもよい。LPC転換器134は、必要なスペクトル重み付け転換に対する各変換又は各LPCに対して、LPC係数を決定するように内挿を実行してもよいし、又は実行しなくてもよい。LPC係数を伝送するために、LPC係数は、LSF/LSP領域におけるような適切な領域で量子化に従ってもよい。
時間領域符号器104は、以下のように動作する。LP解析フィルタは、LPCアナライザ130によって出力される線形予測係数に依存して、オーディオ信号112の時間領域符号化モード部分をフィルタ処理してもよい。したがって、LP解析フィルタ144の出力に、励振信号150が引き出される。励振信号は、近似器146によって近似される。特に近似器146は、励振信号150を近似するために、符号ブック索引又は他のパラメータのような符号を設定するが、これは、一方では励振信号150の、例えば偏差によって定義されるある最適化尺度を最小化又は最大化することなどによって、及び、他方では合成された領域において、すなわちLPCによるそれぞれの合成フィルタをそれぞれの励振信号に適用した後において、符号ブック索引によって定義されるような合成的に生成された励振信号を最小化又は最大化することなどによって行われる。最適化尺度は、好みに応じて、知覚的により関連性のある周波数帯での、知覚的に強調された偏差であってもよい。近似器146により設定された符号によって決定された革新励振は、革新パラメータと呼ばれることがある。
したがって、近似器146は、革新パラメータが、例えばフレームモード構文要素122によって、関連付けられた時間領域符号化モードを有する対応フレームの中に挿入されるように、時間領域フレーム符号化モード部分あたり1つ以上の革新パラメータを出力してもよい。周波数領域符号器106は、今度は、以下のように動作してもよい。変換器132は、1部分あたり1つ以上のスペクトルを得るように、例えば重複変換を用いて、オーディオ信号112の周波数領域部分を変換する。変換器132の出力で得られたスペクトログラムは、LPCに従ってスペクトル写真を表す連続したスペクトルを整形する周波数領域ノイズ整形器136に入る。この目的のために、LPC転換器134は、スペクトルにスペクトル的な重み付けをするように、LPCアナライザ130の線形予測係数を、周波数領域重み付け値に転換する。このとき、スペクトル的な重み付けはLP解析フィルタの伝達関数が生じるように実行される。すなわち、ODTFが、例えばLPC係数をスペクトル的重み付けに転換するように使用されてもよい。スペクトル的重み付けは、その後、変換器132のスペクトル出力を分割するように使用されてもよく、それ故に、復号器側では逓倍が行われる。
以下で、量子化器138は、データストリーム114の対応フレーム中への挿入のために、周波数領域ノイズ整形器136により生成されて出力される励起スペクトルを変換係数レベル60の中に量子化する。
上で説明された実施形態によれば、動作モードのある1つのモードの場合に、ACELPモードを選択することを差し控えるように、USAC符号器を異なる動作モードで動作するように変更することによって、本願の明細書の導入部分で議論されたUSACコーデックを変更する場合、本発明の一実施形態を引き出すことができる。低遅延の達成を可能とするためには、USACコーデックは、以下の方法でさらに変更することができる。例えば動作モードとは無関係に、TCX及びACELPフレーム符号化モードだけが使用されてもよい。より低い遅延を達成するために、フレーム長は、20ミリ秒のフレーム化を達成するように縮小してもよい。特に上の実施形態に従ってUSACコーデックをより効率的にする際、USACの動作モード、すなわち狭帯域(NB)、広帯域(WB)及び超広帯域(SWB)は、全面的に利用可能なフレーム符号化モードの適切なサブセットだけが、個々のモード内で利用可能であるように、続いて説明される表に従って修正してもよい。
Figure 2014507016
上記の表が明らかにするように、上で説明された実施形態において、復号器の動作モードは、外部信号又はデータストリームだけから決定できるだけでなく、それら両方の組み合わせに基づいても決定できる。例えば上記の表では、データストリームは、復号器に主モード、すなわちNB、WB、SWB、FBを、フレームレートよりも恐らく低いあるレートで、データストリームの中に存在する粗い動作モード構文要素として示すことができる。符号器は、構文要素38に加えてこの構文要素を挿入する。しかしながら、正確な動作モードは、利用可能なビットレートを示す付加的な外部信号の検査を必要としてもよい。例えばSWBの場合には、正確なモードは、48kbps未満、48kbps以上で96kbps未満、又は96kbps以上という利用可能なビットレートに依存する。
上の実施形態に関して以下のことに注目すべきことである。他の実施形態によることではあるが、仮に、情報信号のフレーム/時間部分が関連付けることができるすべての複数のフレーム符号化モードのセットが、時間領域フレーム符号化モード又は周波数領域フレーム符号化モードだけからなり(これは異なってもよいが)、その結果、時間領域符号化モードでもなく、周波数領域符号化モードでもない1つ又は1つより多くのフレーム符号化モードもできるとなれば、それは好ましいことである。
いくつかの態様が装置について説明してきたが、これらの態様もまた対応する方法の記述を表し、その対応する方法では、ブロック又はデバイスが、方法ステップ又は方法ステップの特徴に対応することは明らかである。同様に、方法ステップについて説明された態様はまた、対応する装置の、対応するブロック、項目又は特徴の記述を表す。いくつかの又はすべての方法ステップは、例えばマイクロプロセッサ、プログラム可能なコンピュータ又は電子回路のような、ハードウエア装置によって(を用いて)実行できる。いくつかの実施形態では、何らかの1つ以上の最も重要な方法ステップが、そのような装置によって実行できる。
ある実施要求事項に依存して、本発明の実施形態は、ハードウエアで、又はソフトウエアで実施できる。その実施は、例えばフロッピーディスク、DVD、ブルーレイ、CD、ROM、PROM、EPROM、EEPROM又はFLASHメモリのような、その上に蓄積された電子的に読出し可能な制御信号を有するデジタル記憶媒体を用いて実行でき、これらのデジタル記憶媒体は、それぞれの方法が実行されるように、プログラム可能なコンピュータシステムと協力する(又は協力することができる)。それゆえに、デジタル記憶媒体は、コンピュータで読出し可能なものとすることができる。
本発明によるいくつかの実施形態は、電子的に読出し可能な制御信号を有するデータ担体を含み、電子的に読出し可能な制御信号は、プログラム可能なコンピュータシステムと協力することができ、その結果、本明細書で説明される方法の1つが実行される。
一般に、本発明の実施形態は、プログラムコードを有するコンピュータプログラム製品として実施することができ、プログラムコードは、コンピュータプログラム製品がコンピュータ上で動く場合、方法の1つを実行するために作動する。プログラムコードは、例えばコンピュータで読み取ることができる担体上に蓄積されてもよい。
他の実施形態は、本明細書で説明される方法の1つを実行するための、コンピュータで読み取ることができる担体上に蓄積されたコンピュータプログラムを含む。
言い換えれば、独創的な方法の実施形態は、それゆえに、コンピュータプログラムであり、これは、コンピュータプログラムがコンピュータ上で動く場合に、本明細書で説明される方法の1つを実行するためのプログラムコードを有する。
独創的な方法のさらなる実施形態は、それゆえに、データ担体(又はデジタル記憶媒体、又はコンピュータ読み取り可能な媒体)であり、この上に記録された、本明細書で説明された方法の1つを実行するためのコンピュータプログラムを備える。データ担体、デジタル記憶媒体又は記録媒体は、通常、有形かつ/又は非遷移性のものである。
独創的な方法のさらなる実施形態は、それゆえに、本明細書で説明された方法の1つを実行するためのコンピュータプログラムを表すデータストリーム又は一連の信号である。データストリーム又は一連の信号は、例えば、データ通信接続、例えばインターネット、を介して転送されるように構成してもよい。
さらなる実施形態は、本明細書で説明された方法の1つを実行するように構成された、又は適合された、例えばコンピュータ又はプログラム可能な論理デバイスのような処理手段を含む。
さらなる実施形態は、本明細書で説明された方法の1つを実行するためのコンピュータプログラムをインストールしているコンピュータを含む。
本発明によるさらなる実施形態は、本明細書で説明された方法の1つを実行するためのコンピュータプログラムを受信器に(例えば電子的に又は光学的に)転送するように構成された装置又はシステムを含む。その受信器は、例えばコンピュータ、携帯機器、メモリ素子などとすることができる。その装置又はシステムとして、例えばコンピュータプログラムを受信器に転送するためのファイルサーバーを含むことができる。
いくつかの実施形態では、プログラム可能な論理デバイス(例えばフィールド・プログラマブル・ゲートアレイ)が、本明細書で説明された方法のいくつかの、又はすべての機能を実行するために使用できる。いくつかの実施形態では、フィールド・プログラマブル・ゲートアレイは、本明細書に説明された方法の1つを実行するために、マイクロプロセッサと協力できる。一般に、それらの方法は、任意のハードウエア装置によって実行されるのが好ましい。
上で説明された実施形態は、本発明の原理のための例証であるにすぎない。配置の変更と変形及び本明細書で説明された詳細が、当業者にとって明白であろうことは理解される。それゆえに、その趣旨は、以下の特許請求項の範囲によってのみ制限されることであり、かつ本明細書中の実施形態の記述及び説明として呈示された特定の詳細によって制限されないことである。

Claims (18)

  1. オーディオ復号器であって、
    時間領域復号器(12)と、
    周波数領域復号器(14)と、
    データストリーム(20)の連続したフレーム(18a−18c)の各々を、複数のフレーム符号化モード(22)のモード依存セットの中の1つと関連付けるように構成された関連付け装置(16)であって、連続したフレーム(18a−18c)の各々がオーディオ信号の連続した部分(24a−24c)の対応フレームを表す、関連付け装置(16)と、
    を備え、
    前記時間領域復号器(12)は前記複数のフレーム符号化モード(22)の1つ以上の第1サブセット(30)の関連付けられた1つを有するフレーム(18a−18c)を復号化するように構成され、かつ前記周波数領域復号器(14)は前記複数のフレーム符号化モード(22)の1つ以上の第2サブセット(32)の関連付けられた1つを有するフレーム(18a−18c)を復号化するように構成され、前記第1及び第2サブセットは互いに分離されており、
    前記関連付け装置(16)は、前記データストリーム(20)における前記フレーム(18a−18c)に関連付けられたフレームモード構文要素(38)に依存する前記関連付けを実行し、かつ、前記データスリーム及び/又は外部制御信号に依存する複数の動作モードから1つの活性な動作モードを選択すると共に、前記活性な動作モードに依存して前記関連付け実行の依存度を変化させながら、前記活性な動作モードで動作するように構成されているオーディオ復号器。
  2. 前記関連付け装置(16)は、仮に前記活性な動作モードが第1動作モードである場合、前記複数のフレーム符号化モードの前記モード依存セット(40)は前記第1サブセット(30)に対して分離され、かつ前記第2サブセット(32)と重なり、かつ、仮に前記活性な動作モードが第2動作モードである場合、前記複数のフレーム符号化モードの前記モード依存セット(42)は前記第1サブセット(30)及び第2サブセット(32)と重なるように構成されている請求項1に記載のオーディオ復号器。
  3. 前記フレームモード構文要素は、各フレームに関する前記フレームモード構文要素(38)についての区別しうる可能な値の数が、前記第1又は第2動作モードである前記活性な動作モードと無関係であるように前記データストリーム(20)の中に符号化されている請求項1又は2に記載のオーディオ復号器。
  4. 前記区別しうる可能な値の数が2であり、
    前記関連付け装置(16)は、前記活性な動作モードが前記第1動作モードである場合、前記モード依存セット(40)は1つ以上のフレーム符号化モードの前記第2サブセット(32)の第1及び第2フレーム符号化モードを含むように構成され、かつ、
    前記周波数領域復号器(14)は、関連付けられた前記第1及び第2フレーム符号化モードを有するフレームを復号化する際に、異なる時間−周波数分解能を用いるように構成されている請求項3に記載のオーディオ復号器。
  5. 前記時間領域復号器(12)は符号励振された線形予測復号器である請求項1から4のいずれか1項に記載のオーディオ復号器。
  6. 前記周波数領域復号器は、1つ以上の前記フレーム符号化モードの前記第2サブセット(32)の関連付けられた1つを有する前記フレームを、該フレーム中に符号化された変換係数レベルに基づいて復号化するように構成されている変換復号器である請求項1から5のいずれか1項に記載のオーディオ復号器。
  7. 前記時間領域復号器(12)及び周波数領域復号器は、前記データストリームから各フレームに対する線形予測フィルタ係数を得るように構成された線形予測に基づく復号器であり、
    前記時間領域復号器(12)は、前記複数のフレーム符号化モードの1つ以上の前記第1サブセット(30)の関連付けられた1つを有する前記フレームに対する前記LPCフィルタ係数に依存する線形予測合成フィルタを、前記複数のフレーム符号化モードの1つ以上の前記第1サブセットの関連付けられた1つを有する前記フレームにおける符号ブック索引を用いて構築された励振信号に適用することによって、フレーム符号化モードの1つ以上の前記第1サブセットの関連付けられた1つを有する前記フレームに対応する前記オーディオ信号(26)の部分を再構築するように構成され、かつ、
    前記周波数領域復号器(14)は、前記第2サブセットの関連付けられた1つを有する前記フレームに対する前記LPCフィルタ係数に従って、前記第2サブセットの関連付けられた1つを有する前記フレームにおける変換係数レベルによって定義された励振スペクトルを整形すると共に、前記整形された励振スペクトルを再変換することによって、
    前記フレーム符号化モードの1つ以上の前記第2サブセットの関連付けられた1つを有する前記フレームに対応する前記オーディオ信号の部分を再構築するように構成されている請求項1から6のいずれか1項に記載のオーディオ復号器。
  8. オーディオ符号器であって、
    時間領域符号器(104)と、
    周波数領域符号器(106)と、
    オーディオ信号(112)の連続した部分(116a−116c)の各々を、複数のフレーム符号化モード(22)のモード依存セット(40、42)の中の1つと関連付けるように構成された関連付け装置(102)と、
    を備え、
    前記時間領域符号器(104)は、前記複数のフレーム符号化モード(22)の1つ以上の第1サブセット(30)の関連付けられた1つを有する部分をデータストリーム(114)の対応フレーム(118a−118cまで)の中に符号化するように構成され、
    前記周波数領域符号器(106)は、前記複数の符号化モードの1つ以上の第2サブセット(32)の関連付けられた1つを有する部分を前記データストリームの対応フレームの中に符号化するように構成され、
    前記関連付け装置(102)は、複数の動作モードの1つの活性なモードで動作し、前記活性な動作モードが第1動作モードである場合、前記複数のフレーム符号化モードの前記モード依存セット(40)が前記第1サブセット(30)に対して分離され、かつ前記第2サブセット(32)と重なり、前記活性な動作モードが第2動作モードである場合、前記複数の符号化モードの前記モード依存セットが前記第1サブセット(30)及び第2サブセット(32)と重なるように構成されているオーディオ符号器。
  9. 前記関連付け装置(102)は、前記それぞれの部分が前記複数のフレーム符号化モードのどのフレーム符号化モードに関連付けられるかを各部分に対して示すように、フレームモード構文要素(122)を前記データストリーム(114)の中に符号化するように構成されている請求項8に記載のオーディオ符号器。
  10. 前記関連付け装置(102)は、それぞれの部分に関連付けられた前記フレームモード構文要素の1組の可能な値と前記フレーム符号化モードの前記モード依存セットとの間での全単写像を使用して、前記フレームモード構文要素(122)を前記データストリーム(114)の中に符号化し、前記全単写像(52)が前記活性な動作モードに依存して変化するように構成されている請求項9に記載のオーディオ符号器。
  11. 前記関連付け装置(102)は、前記活性な動作モードが前記第1動作モードである場合、前記複数のフレーム符号化モードの前記モード依存セットが前記第1サブセット(30)に対して分離され、かつ前記第2サブセット(32)と重なり、前記活性な動作モードが第2動作モードである場合、前記複数のフレーム符号化モードの前記モード依存セットが前記第1及び第2サブセットと重なるように構成されている請求項9に記載のオーディオ符号器。
  12. 前記1組の可能な値における可能な値の数が2であり、
    前記関連付け装置(102)は、前記活性な動作モードが前記第1動作モードである場合、前記モード依存セットが、1つ以上のフレーム符号化モードの前記第2セットの第1及び第2フレーム符号化モードを含むように構成され、
    前記周波数領域符号器は、関連付けられた前記第1及び第2フレーム符号化モードを有する部分を符号化する際に、異なる時間−周波数分解能を用いるように構成されている請求項11に記載のオーディオ復号器。
  13. 前記時間領域符号器(104)は、符号励起された線形予測符号器である請求項8から12のいずれか1項に記載のオーディオ符号器。
  14. 前記周波数領域符号器(106)は、前記フレーム符号化モードの1つ以上の前記第2サブセットの関連付けられた1つを有する部分を、変換係数レベルを用いて符号化し、それを前記データストリームの対応フレームの中に入れるように構成された変換符号器である請求項8から13のいずれか1項に記載のオーディオ符号器。
  15. 前記時間領域復号器及び前記周波数領域復号器は、前記オーディオ信号(112)の各部分に対してLPCフィルタ係数に信号送信するように構成されたLPに基づく符号器であり、
    前記時間領域符号器(104)は、前記LPCフィルタ係数に依存するLP解析フィルタを、フレーム符号化モードの1つ以上の前記第1サブセットの関連付けられた1つを有する前記オーディオ信号(112)の部分に適用して励振信号(150)を得るように、かつ、その励振信号を、符号ブック索引を用いて近似して前記対応フレームの中に挿入するように構成されており、
    前記周波数領域符号器(106)は、前記フレーム符号化モードの1つ以上の前記第2サブセットの関連付けられた1つを有する前記オーディオ信号の部分を変換してスペクトルを得るように、そのスペクトルを、前記第2サブセットの関連付けられた1つを有する前記部分に対する前記LPCフィルタ係数に従って整形して励振スペクトルを得るように、その励振スペクトルを、前記第2サブセットの関連付けられた1つを有する前記フレーム内の変換係数レベルに量子化し、かつその量子化された励振スペクトルを前記対応フレームの中に挿入するように構成されている請求項8から14のいずれか1項に記載のオーディオ符号器。
  16. 時間領域復号器(12)と周波数領域復号器(14)とを用いるオーディオ復号方法であって、
    データストリーム(20)の連続したフレーム(18a−18c)の各々を、複数のフレーム符号化モード(22)のモード依存セットの中の1つに関連付けるためのステップであって、連続したフレーム(18a−18c)の各々が、オーディオ信号の連続した部分(24a−24c)の対応フレームを表す、ステップと、
    データストリーム(20)の連続したフレーム(18a−18c)の各々に関連付けられた前記複数のフレーム符号化モード(22)の1つ以上の第1サブセット(30)の1つを有するフレーム(18a−18c)を、前記時間領域復号器(12)によって、復号化するステップと、
    データストリーム(20)の連続したフレーム(18a−18c)の各々に関連付けられる前記複数のフレーム符号化モード(22)の1つ以上の第2サブセット(32)の1つを有するフレーム(18a−18c)を、前記周波数領域復号器(14)によって、復号化するステップであって、前記第1及び第2サブセットがお互いに分離されている、ステップと、
    を備え、
    前記関連付けは、前記データストリーム(20)の中のフレーム(18a−18c)に関連付けられたフレームモード構文要素(38)に依存し、
    かつ、前記関連付けは、前記データストリーム及び/又は外部制御信号に依存して複数の動作モードの中から選択した1つの活性な動作モードにおいて実行され、その結果、前記関連付け実行の依存度が前記活性な動作モードに依存して変化するオーディオ復号方法。
  17. 時間領域符号器(104)と周波数領域符号器(106)とを用いるオーディオ符号化方法であって、
    オーディオ信号(112)の連続した部分(116a−116c)の各々を、複数のフレーム符号化モード(22)のモード依存セット(40、42)の中の1つに関連付けるステップと、
    オーディオ信号(112)の連続した部分(116a−116c)の各々に関連付けられた前記複数のフレーム符号化モード(22)の1つ以上の第1サブセット(30)の1つを有する部分を、前記時間領域符号器(104)によって、データストリーム(114)の対応フレーム(118a−118c)の中に符号化するステップと、
    オーディオ信号(112)の連続した部分(116a−116c)の各々に関連付けられる前記複数の符号化モードの1つ以上の第2サブセット(32)の1つを有する部分を、前記周波数領域符号器(106)によって、前記データストリームの対応フレームの中に符号化するステップと、
    を備え、
    前記関連付けが、複数の動作モードの1つの活性なモードにおいて、前記活性な動作モードが第1動作モードである場合、前記複数のフレーム符号化モードの前記モード依存セット(40)が、前記第1サブセット(30)に対して分離され、かつ前記第2サブセット(32)に重なり、かつ、前記活性な動作モードが第2動作モードである場合、前記複数の符号化モードの前記モード依存セットが、前記第1サブセット(30)及び第2サブセット(32)と重なるように実行されるオーディオ符号化方法。
  18. コンピュータ上で動くときに請求項16又は17による方法を実行するためのプログラムコードを有するコンピュータプログラム。
JP2013553902A 2011-02-14 2012-02-14 時間領域符号化モード及び周波数領域符号化モードに対応するオーディオコーデック Active JP5851525B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201161442632P 2011-02-14 2011-02-14
US61/442,632 2011-02-14
PCT/EP2012/052461 WO2012110480A1 (en) 2011-02-14 2012-02-14 Audio codec supporting time-domain and frequency-domain coding modes

Publications (2)

Publication Number Publication Date
JP2014507016A true JP2014507016A (ja) 2014-03-20
JP5851525B2 JP5851525B2 (ja) 2016-02-03

Family

ID=71943598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013553902A Active JP5851525B2 (ja) 2011-02-14 2012-02-14 時間領域符号化モード及び周波数領域符号化モードに対応するオーディオコーデック

Country Status (19)

Country Link
US (1) US9037457B2 (ja)
EP (1) EP2676269B1 (ja)
JP (1) JP5851525B2 (ja)
KR (2) KR101648133B1 (ja)
CN (1) CN103548078B (ja)
AR (1) AR085223A1 (ja)
AU (2) AU2012217160B2 (ja)
BR (1) BR112013020589B1 (ja)
CA (1) CA2827296C (ja)
ES (1) ES2562189T3 (ja)
HK (1) HK1192793A1 (ja)
MX (1) MX2013009302A (ja)
MY (2) MY159444A (ja)
PL (1) PL2676269T3 (ja)
RU (1) RU2547241C1 (ja)
SG (1) SG192715A1 (ja)
TW (2) TWI488176B (ja)
WO (1) WO2012110480A1 (ja)
ZA (1) ZA201306872B (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2586838C2 (ru) 2011-02-14 2016-06-10 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Аудиокодек, использующий синтез шума в течение неактивной фазы
US9589570B2 (en) 2012-09-18 2017-03-07 Huawei Technologies Co., Ltd. Audio classification based on perceptual quality for low or medium bit rates
EP2830052A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio decoder, audio encoder, method for providing at least four audio channel signals on the basis of an encoded representation, method for providing an encoded representation on the basis of at least four audio channel signals and computer program using a bandwidth extension
ES2716652T3 (es) 2013-11-13 2019-06-13 Fraunhofer Ges Forschung Codificador para la codificación de una señal de audio, sistema de transmisión de audio y procedimiento para la determinación de valores de corrección
EP2980790A1 (en) 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for comfort noise generation mode selection
US10699721B2 (en) * 2017-04-25 2020-06-30 Dts, Inc. Encoding and decoding of digital audio signals using difference data
US10699723B2 (en) * 2017-04-25 2020-06-30 Dts, Inc. Encoding and decoding of digital audio signals using variable alphabet size
WO2018201112A1 (en) * 2017-04-28 2018-11-01 Goodwin Michael M Audio coder window sizes and time-frequency transformations
WO2019167706A1 (ja) * 2018-03-02 2019-09-06 日本電信電話株式会社 符号化装置、符号化方法、プログラム、および記録媒体

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007525707A (ja) * 2004-02-18 2007-09-06 ヴォイスエイジ・コーポレーション Acelp/tcxに基づくオーディオ圧縮中の低周波数強調の方法およびデバイス
JP2007538282A (ja) * 2004-05-17 2007-12-27 ノキア コーポレイション 各種の符号化フレーム長でのオーディオ符号化

Family Cites Families (125)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE294441T1 (de) 1991-06-11 2005-05-15 Qualcomm Inc Vocoder mit veränderlicher bitrate
US5408580A (en) * 1992-09-21 1995-04-18 Aware, Inc. Audio compression system employing multi-rate signal analysis
BE1007617A3 (nl) * 1993-10-11 1995-08-22 Philips Electronics Nv Transmissiesysteem met gebruik van verschillende codeerprincipes.
US5784532A (en) * 1994-02-16 1998-07-21 Qualcomm Incorporated Application specific integrated circuit (ASIC) for performing rapid speech compression in a mobile telephone system
CN1090409C (zh) * 1994-10-06 2002-09-04 皇家菲利浦电子有限公司 采用不同编码原理的传送***
US5537510A (en) 1994-12-30 1996-07-16 Daewoo Electronics Co., Ltd. Adaptive digital audio encoding apparatus and a bit allocation method thereof
SE506379C3 (sv) 1995-03-22 1998-01-19 Ericsson Telefon Ab L M Lpc-talkodare med kombinerad excitation
US5754733A (en) 1995-08-01 1998-05-19 Qualcomm Incorporated Method and apparatus for generating and encoding line spectral square roots
US5848391A (en) * 1996-07-11 1998-12-08 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E.V. Method subband of coding and decoding audio signals using variable length windows
JP3259759B2 (ja) 1996-07-22 2002-02-25 日本電気株式会社 音声信号伝送方法及び音声符号復号化システム
JPH10124092A (ja) 1996-10-23 1998-05-15 Sony Corp 音声符号化方法及び装置、並びに可聴信号符号化方法及び装置
US5960389A (en) 1996-11-15 1999-09-28 Nokia Mobile Phones Limited Methods for generating comfort noise during discontinuous transmission
JPH10214100A (ja) 1997-01-31 1998-08-11 Sony Corp 音声合成方法
US6134518A (en) 1997-03-04 2000-10-17 International Business Machines Corporation Digital audio signal coding using a CELP coder and a transform coder
JP3223966B2 (ja) 1997-07-25 2001-10-29 日本電気株式会社 音声符号化/復号化装置
US6070137A (en) * 1998-01-07 2000-05-30 Ericsson Inc. Integrated frequency-domain voice coding using an adaptive spectral enhancement filter
ATE302991T1 (de) * 1998-01-22 2005-09-15 Deutsche Telekom Ag Verfahren zur signalgesteuerten schaltung zwischen verschiedenen audiokodierungssystemen
GB9811019D0 (en) 1998-05-21 1998-07-22 Univ Surrey Speech coders
US6317117B1 (en) 1998-09-23 2001-11-13 Eugene Goff User interface for the control of an audio spectrum filter processor
US7272556B1 (en) 1998-09-23 2007-09-18 Lucent Technologies Inc. Scalable and embedded codec for speech and audio signals
US7124079B1 (en) 1998-11-23 2006-10-17 Telefonaktiebolaget Lm Ericsson (Publ) Speech coding with comfort noise variability feature for increased fidelity
JP4024427B2 (ja) 1999-05-24 2007-12-19 株式会社リコー 線形予測係数抽出装置、線形予測係数抽出方法、およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
CN1145928C (zh) 1999-06-07 2004-04-14 艾利森公司 用参数噪声模型统计量产生舒适噪声的方法及装置
JP4464484B2 (ja) 1999-06-15 2010-05-19 パナソニック株式会社 雑音信号符号化装置および音声信号符号化装置
US6236960B1 (en) 1999-08-06 2001-05-22 Motorola, Inc. Factorial packing method and apparatus for information coding
ES2269112T3 (es) 2000-02-29 2007-04-01 Qualcomm Incorporated Codificador de voz multimodal en bucle cerrado de dominio mixto.
US6757654B1 (en) 2000-05-11 2004-06-29 Telefonaktiebolaget Lm Ericsson Forward error correction in speech coding
JP2002118517A (ja) 2000-07-31 2002-04-19 Sony Corp 直交変換装置及び方法、逆直交変換装置及び方法、変換符号化装置及び方法、並びに復号装置及び方法
US6847929B2 (en) 2000-10-12 2005-01-25 Texas Instruments Incorporated Algebraic codebook system and method
CA2327041A1 (en) 2000-11-22 2002-05-22 Voiceage Corporation A method for indexing pulse positions and signs in algebraic codebooks for efficient coding of wideband signals
US6701772B2 (en) 2000-12-22 2004-03-09 Honeywell International Inc. Chemical or biological attack detection and mitigation system
US7901873B2 (en) 2001-04-23 2011-03-08 Tcp Innovations Limited Methods for the diagnosis and treatment of bone disorders
US20020184009A1 (en) 2001-05-31 2002-12-05 Heikkinen Ari P. Method and apparatus for improved voicing determination in speech signals containing high levels of jitter
US20030120484A1 (en) 2001-06-12 2003-06-26 David Wong Method and system for generating colored comfort noise in the absence of silence insertion description packets
US6941263B2 (en) 2001-06-29 2005-09-06 Microsoft Corporation Frequency domain postfiltering for quality enhancement of coded speech
US6879955B2 (en) 2001-06-29 2005-04-12 Microsoft Corporation Signal modification based on continuous time warping for low bit rate CELP coding
KR100438175B1 (ko) 2001-10-23 2004-07-01 엘지전자 주식회사 코드북 검색방법
CA2388439A1 (en) 2002-05-31 2003-11-30 Voiceage Corporation A method and device for efficient frame erasure concealment in linear predictive based speech codecs
EP1543307B1 (en) 2002-09-19 2006-02-22 Matsushita Electric Industrial Co., Ltd. Audio decoding apparatus and method
US7343283B2 (en) 2002-10-23 2008-03-11 Motorola, Inc. Method and apparatus for coding a noise-suppressed audio signal
US7363218B2 (en) 2002-10-25 2008-04-22 Dilithium Networks Pty. Ltd. Method and apparatus for fast CELP parameter mapping
KR100465316B1 (ko) 2002-11-18 2005-01-13 한국전자통신연구원 음성 부호화기 및 이를 이용한 음성 부호화 방법
US7318035B2 (en) 2003-05-08 2008-01-08 Dolby Laboratories Licensing Corporation Audio coding systems and methods using spectral component coupling and spectral component regeneration
US20050091044A1 (en) 2003-10-23 2005-04-28 Nokia Corporation Method and system for pitch contour quantization in audio coding
KR101106026B1 (ko) 2003-10-30 2012-01-17 돌비 인터네셔널 에이비 오디오 신호 인코딩 또는 디코딩
FI118835B (fi) 2004-02-23 2008-03-31 Nokia Corp Koodausmallin valinta
WO2005096274A1 (fr) 2004-04-01 2005-10-13 Beijing Media Works Co., Ltd Dispositif et procede de codage/decodage audio ameliores
GB0408856D0 (en) 2004-04-21 2004-05-26 Nokia Corp Signal encoding
US7649988B2 (en) 2004-06-15 2010-01-19 Acoustic Technologies, Inc. Comfort noise generator using modified Doblinger noise estimate
US8160274B2 (en) 2006-02-07 2012-04-17 Bongiovi Acoustics Llc. System and method for digital signal processing
TWI253057B (en) * 2004-12-27 2006-04-11 Quanta Comp Inc Search system and method thereof for searching code-vector of speech signal in speech encoder
RU2405217C2 (ru) 2005-01-31 2010-11-27 Скайп Лимитед Способ взвешенного сложения с перекрытием
US7519535B2 (en) 2005-01-31 2009-04-14 Qualcomm Incorporated Frame erasure concealment in voice communications
US20070147518A1 (en) 2005-02-18 2007-06-28 Bruno Bessette Methods and devices for low-frequency emphasis during audio compression based on ACELP/TCX
US8155965B2 (en) 2005-03-11 2012-04-10 Qualcomm Incorporated Time warping frames inside the vocoder by modifying the residual
EP1864281A1 (en) 2005-04-01 2007-12-12 QUALCOMM Incorporated Systems, methods, and apparatus for highband burst suppression
EP1905002B1 (en) 2005-05-26 2013-05-22 LG Electronics Inc. Method and apparatus for decoding audio signal
US7707034B2 (en) 2005-05-31 2010-04-27 Microsoft Corporation Audio codec post-filter
EP1897085B1 (en) 2005-06-18 2017-05-31 Nokia Technologies Oy System and method for adaptive transmission of comfort noise parameters during discontinuous speech transmission
KR100851970B1 (ko) 2005-07-15 2008-08-12 삼성전자주식회사 오디오 신호의 중요주파수 성분 추출방법 및 장치와 이를이용한 저비트율 오디오 신호 부호화/복호화 방법 및 장치
US7610197B2 (en) 2005-08-31 2009-10-27 Motorola, Inc. Method and apparatus for comfort noise generation in speech communication systems
US7720677B2 (en) 2005-11-03 2010-05-18 Coding Technologies Ab Time warped modified transform coding of audio signals
US7536299B2 (en) 2005-12-19 2009-05-19 Dolby Laboratories Licensing Corporation Correlating and decorrelating transforms for multiple description coding systems
US8255207B2 (en) 2005-12-28 2012-08-28 Voiceage Corporation Method and device for efficient frame erasure concealment in speech codecs
EP1984911A4 (en) 2006-01-18 2012-03-14 Lg Electronics Inc DEVICE AND METHOD FOR SIGNAL CODING AND DECODING
CN101371297A (zh) * 2006-01-18 2009-02-18 Lg电子株式会社 用于编码和解码信号的设备和方法
US8032369B2 (en) 2006-01-20 2011-10-04 Qualcomm Incorporated Arbitrary average data rates for variable rate coders
FR2897733A1 (fr) 2006-02-20 2007-08-24 France Telecom Procede de discrimination et d'attenuation fiabilisees des echos d'un signal numerique dans un decodeur et dispositif correspondant
US20070253577A1 (en) 2006-05-01 2007-11-01 Himax Technologies Limited Equalizer bank with interference reduction
EP2030199B1 (en) 2006-05-30 2009-10-28 Koninklijke Philips Electronics N.V. Linear predictive coding of an audio signal
US7873511B2 (en) 2006-06-30 2011-01-18 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder, audio decoder and audio processor having a dynamically variable warping characteristic
JP4810335B2 (ja) 2006-07-06 2011-11-09 株式会社東芝 広帯域オーディオ信号符号化装置および広帯域オーディオ信号復号装置
US7933770B2 (en) 2006-07-14 2011-04-26 Siemens Audiologische Technik Gmbh Method and device for coding audio data based on vector quantisation
CN102096937B (zh) 2006-07-24 2014-07-09 索尼株式会社 毛发运动合成器***和用于毛发/皮毛流水线的优化技术
US7987089B2 (en) 2006-07-31 2011-07-26 Qualcomm Incorporated Systems and methods for modifying a zero pad region of a windowed frame of an audio signal
DE102006049154B4 (de) 2006-10-18 2009-07-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Kodierung eines Informationssignals
US20080147518A1 (en) 2006-10-18 2008-06-19 Siemens Aktiengesellschaft Method and apparatus for pharmacy inventory management and trend detection
KR101016224B1 (ko) * 2006-12-12 2011-02-25 프라운호퍼-게젤샤프트 추르 푀르데룽 데어 안제반텐 포르슝 에 파우 인코더, 디코더 및 시간 영역 데이터 스트림을 나타내는 데이터 세그먼트를 인코딩하고 디코딩하는 방법
FR2911228A1 (fr) 2007-01-05 2008-07-11 France Telecom Codage par transformee, utilisant des fenetres de ponderation et a faible retard.
KR101379263B1 (ko) * 2007-01-12 2014-03-28 삼성전자주식회사 대역폭 확장 복호화 방법 및 장치
FR2911426A1 (fr) 2007-01-15 2008-07-18 France Telecom Modification d'un signal de parole
JP4708446B2 (ja) 2007-03-02 2011-06-22 パナソニック株式会社 符号化装置、復号装置およびそれらの方法
JP2008261904A (ja) 2007-04-10 2008-10-30 Matsushita Electric Ind Co Ltd 符号化装置、復号化装置、符号化方法および復号化方法
US8630863B2 (en) 2007-04-24 2014-01-14 Samsung Electronics Co., Ltd. Method and apparatus for encoding and decoding audio/speech signal
CN101388210B (zh) 2007-09-15 2012-03-07 华为技术有限公司 编解码方法及编解码器
KR101513028B1 (ko) 2007-07-02 2015-04-17 엘지전자 주식회사 방송 수신기 및 방송신호 처리방법
US8185381B2 (en) 2007-07-19 2012-05-22 Qualcomm Incorporated Unified filter bank for performing signal conversions
CN101110214B (zh) 2007-08-10 2011-08-17 北京理工大学 一种基于多描述格型矢量量化技术的语音编码方法
ES2748843T3 (es) 2007-08-27 2020-03-18 Ericsson Telefon Ab L M Análisis/síntesis espectral de baja complejidad utilizando resolución temporal seleccionable
WO2009033288A1 (en) 2007-09-11 2009-03-19 Voiceage Corporation Method and device for fast algebraic codebook search in speech and audio coding
CN101425292B (zh) * 2007-11-02 2013-01-02 华为技术有限公司 一种音频信号的解码方法及装置
DE102007055830A1 (de) 2007-12-17 2009-06-18 Zf Friedrichshafen Ag Verfahren und Vorrichtung zum Betrieb eines Hybridantriebes eines Fahrzeuges
CN101483043A (zh) 2008-01-07 2009-07-15 中兴通讯股份有限公司 基于分类和排列组合的码本索引编码方法
CN101488344B (zh) 2008-01-16 2011-09-21 华为技术有限公司 一种量化噪声泄漏控制方法及装置
US8000487B2 (en) 2008-03-06 2011-08-16 Starkey Laboratories, Inc. Frequency translation by high-frequency spectral envelope warping in hearing assistance devices
EP2107556A1 (en) 2008-04-04 2009-10-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio transform coding using pitch correction
US8879643B2 (en) 2008-04-15 2014-11-04 Qualcomm Incorporated Data substitution scheme for oversampled data
US8768690B2 (en) 2008-06-20 2014-07-01 Qualcomm Incorporated Coding scheme selection for low-bit-rate applications
ES2683077T3 (es) 2008-07-11 2018-09-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Codificador y decodificador de audio para codificar y decodificar tramas de una señal de audio muestreada
PL2346030T3 (pl) * 2008-07-11 2015-03-31 Fraunhofer Ges Forschung Koder audio, sposób kodowania sygnału audio oraz program komputerowy
WO2010003663A1 (en) 2008-07-11 2010-01-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder and decoder for encoding frames of sampled audio signals
MY154452A (en) 2008-07-11 2015-06-15 Fraunhofer Ges Forschung An apparatus and a method for decoding an encoded audio signal
ES2379761T3 (es) 2008-07-11 2012-05-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Proporcinar una señal de activación de distorsión de tiempo y codificar una señal de audio con la misma
CA2871498C (en) 2008-07-11 2017-10-17 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder and decoder for encoding and decoding audio samples
ES2401487T3 (es) 2008-07-11 2013-04-22 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Aparato y procedimiento para la codificación/decodificación de una señal de audio utilizando un esquema de conmutación de generación de señal ajena
US8352279B2 (en) 2008-09-06 2013-01-08 Huawei Technologies Co., Ltd. Efficient temporal envelope coding approach by prediction between low band signal and high band signal
US8577673B2 (en) 2008-09-15 2013-11-05 Huawei Technologies Co., Ltd. CELP post-processing for music signals
US8798776B2 (en) * 2008-09-30 2014-08-05 Dolby International Ab Transcoding of audio metadata
EP2345030A2 (en) * 2008-10-08 2011-07-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multi-resolution switched audio encoding/decoding scheme
KR101315617B1 (ko) * 2008-11-26 2013-10-08 광운대학교 산학협력단 모드 스위칭에 기초하여 윈도우 시퀀스를 처리하는 통합 음성/오디오 부/복호화기
CN101770775B (zh) 2008-12-31 2011-06-22 华为技术有限公司 信号处理方法及装置
ES2567129T3 (es) 2009-01-28 2016-04-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Codificador de audio, decodificador de audio, información de audio codificada, métodos para la codificación y decodificación de una señal de audio y programa de ordenador
US8457975B2 (en) 2009-01-28 2013-06-04 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio decoder, audio encoder, methods for decoding and encoding an audio signal and computer program
EP2214165A3 (en) 2009-01-30 2010-09-15 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus, method and computer program for manipulating an audio signal comprising a transient event
CN102396024A (zh) * 2009-02-16 2012-03-28 韩国电子通信研究院 使用自适应正弦波脉冲编码的用于音频信号的编码/解码方法及其设备
EP2234103B1 (en) 2009-03-26 2011-09-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Device and method for manipulating an audio signal
EP3352168B1 (en) 2009-06-23 2020-09-16 VoiceAge Corporation Forward time-domain aliasing cancellation with application in weighted or original signal domain
CN101958119B (zh) * 2009-07-16 2012-02-29 中兴通讯股份有限公司 一种改进的离散余弦变换域音频丢帧补偿器和补偿方法
CA2862715C (en) 2009-10-20 2017-10-17 Ralf Geiger Multi-mode audio codec and celp coding adapted therefore
PL2473995T3 (pl) 2009-10-20 2015-06-30 Fraunhofer Ges Forschung Koder sygnału audio, dekoder sygnału audio, sposób dostarczania zakodowanej reprezentacji treści audio, sposób dostarczania dekodowanej reprezentacji treści audio oraz program komputerowy do wykorzystania w zastosowaniach z małym opóźnieniem
CN102081927B (zh) 2009-11-27 2012-07-18 中兴通讯股份有限公司 一种可分层音频编码、解码方法及***
US8428936B2 (en) 2010-03-05 2013-04-23 Motorola Mobility Llc Decoder for audio signal including generic audio and speech frames
US8423355B2 (en) 2010-03-05 2013-04-16 Motorola Mobility Llc Encoder for audio signal including generic audio and speech frames
TW201214415A (en) * 2010-05-28 2012-04-01 Fraunhofer Ges Forschung Low-delay unified speech and audio codec
RU2586838C2 (ru) 2011-02-14 2016-06-10 Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. Аудиокодек, использующий синтез шума в течение неактивной фазы

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007525707A (ja) * 2004-02-18 2007-09-06 ヴォイスエイジ・コーポレーション Acelp/tcxに基づくオーディオ圧縮中の低周波数強調の方法およびデバイス
JP2007538282A (ja) * 2004-05-17 2007-12-27 ノキア コーポレイション 各種の符号化フレーム長でのオーディオ符号化

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JPN6013056557; Max NEUENDORF, et al.: '"A Novel Scheme for Low Bitrate Unified Speech and Audio Coding - MPEG RM0"' Convention Paper Presented at the 126th Convention No.7713, 200907, pp.1-13, Audio Engineering Society *
JPN6014042853; Max NEUENDORF, et al.: '"UNIFIED SPEECH AND AUDIO CODING SCHEME FOR HIGH QUALITY AT LOW BITRATES"' Proceedings of the 2009 IEEE International Conference on Acoustics, Speech and Signal Processing (IC , 200904, pp.1-4 *

Also Published As

Publication number Publication date
TWI484480B (zh) 2015-05-11
US20130332174A1 (en) 2013-12-12
AU2012217160A1 (en) 2013-10-10
KR20140000322A (ko) 2014-01-02
AU2012217160B2 (en) 2016-02-18
CA2827296C (en) 2016-08-30
JP5851525B2 (ja) 2016-02-03
KR101648133B1 (ko) 2016-08-23
WO2012110480A1 (en) 2012-08-23
BR112013020589B1 (pt) 2021-09-21
US9037457B2 (en) 2015-05-19
KR101751354B1 (ko) 2017-06-27
PL2676269T3 (pl) 2016-06-30
AU2016200351B2 (en) 2017-11-30
ZA201306872B (en) 2014-05-28
EP2676269B1 (en) 2015-12-16
AR085223A1 (es) 2013-09-18
HK1192793A1 (zh) 2014-08-29
MY159444A (en) 2017-01-13
ES2562189T3 (es) 2016-03-02
CA2827296A1 (en) 2012-08-23
KR20160060161A (ko) 2016-05-27
AU2016200351A1 (en) 2016-02-11
RU2547241C1 (ru) 2015-04-10
SG192715A1 (en) 2013-09-30
TW201241823A (en) 2012-10-16
TW201248617A (en) 2012-12-01
EP2676269A1 (en) 2013-12-25
CN103548078B (zh) 2015-12-23
CN103548078A (zh) 2014-01-29
TWI488176B (zh) 2015-06-11
RU2013141935A (ru) 2015-03-27
MY160264A (en) 2017-02-28
MX2013009302A (es) 2013-09-13
BR112013020589A2 (pt) 2018-07-10

Similar Documents

Publication Publication Date Title
JP5851525B2 (ja) 時間領域符号化モード及び周波数領域符号化モードに対応するオーディオコーデック
JP6173288B2 (ja) マルチモードオーディオコーデックおよびそれに適応されるcelp符号化
KR102075361B1 (ko) 다채널 신호를 인코딩하기 위한 오디오 인코더 및 인코딩된 오디오 신호를 디코딩하기 위한 오디오 디코더
CN106462557B (zh) 重采样音频信号的方法、设备、编/解码器及存储介质
AU2016231220B2 (en) Audio encoder, audio decoder, method for encoding an audio signal and method for decoding an encoded audio signal
US9047859B2 (en) Apparatus and method for encoding and decoding an audio signal using an aligned look-ahead portion
KR20120128123A (ko) 오디오 신호 인코더, 오디오 신호 디코더, 앨리어싱-소거를 이용하여 오디오 신호를 인코딩 또는 디코딩하는 방법

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141007

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20150105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151202

R150 Certificate of patent or registration of utility model

Ref document number: 5851525

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250