JP2011528134A - 音声/オーディオ統合信号の符号化/復号化装置 - Google Patents

音声/オーディオ統合信号の符号化/復号化装置 Download PDF

Info

Publication number
JP2011528134A
JP2011528134A JP2011518644A JP2011518644A JP2011528134A JP 2011528134 A JP2011528134 A JP 2011528134A JP 2011518644 A JP2011518644 A JP 2011518644A JP 2011518644 A JP2011518644 A JP 2011518644A JP 2011528134 A JP2011528134 A JP 2011528134A
Authority
JP
Japan
Prior art keywords
unit
module
audio
encoding
decoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011518644A
Other languages
English (en)
Inventor
リー、テ、ジン
ベク、スン、クウォン
キム、ミンジェ
ジャン、テ、ヤン
カン、キョンゴク
ホン、ジン、ウー
パク、ホチョン
パク、ヤン‐チョル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electronics and Telecommunications Research Institute ETRI
Industry Academic Collaboration Foundation of Kwangwoon University
Original Assignee
Electronics and Telecommunications Research Institute ETRI
Industry Academic Collaboration Foundation of Kwangwoon University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Electronics and Telecommunications Research Institute ETRI, Industry Academic Collaboration Foundation of Kwangwoon University filed Critical Electronics and Telecommunications Research Institute ETRI
Publication of JP2011528134A publication Critical patent/JP2011528134A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/20Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

音声/オーディオ統合信号の符号化/復号化装置が開示される。音声/オーディオ統合信号の符号化装置は、入力信号の特性を分析して前記入力信号の第1フレームを符号化するための第1符号化モジュールを選択するモジュール選択部と、前記モジュール選択部の選択によって、前記入力信号を符号化して音声ビットストリームを生成する音声符号化部と、前記モジュール選択部の選択によって、前記入力信号を符号化してオーディオビットストリームを生成するオーディオ符号化部と、前記モジュール選択部の選択によって、前記音声符号化部または前記オーディオ符号化部から出力ビットストリームを生成するビットストリーム生成部とを含む。

Description

音声/オーディオ統合信号の符号化/復号化装置およびその方法に関し、特にコーデック(codec)が互いに異なる構造として動作する2つ以上の符号化/復号化モジュールを有して各動作フレームごとに入力特性に応じて複数の内部モジュールのうち1つを選択して動作する場合、フレームの進み状態に応じて選択されたモジュールが変更されるときに発生する信号歪曲の問題を解決し、歪曲することなくモジュールの変更が可能な装置およびその方法に関する。
本発明は、知識経済部および情報通信研究振興院のIT源泉技術開発事業の一環として行った研究から導き出されたものである[課題管理番号:2008−F−011−01、課題名:次世代DTV核心技術開発]。
音声信号およびオーディオ信号は互いに異なる特性を有し、各信号の固有な特性を活用して各信号に特化した音声コーデックとオーディオコーデックが独立的に研究されて各標準コーデックが開発された。
最近、通信および放送サービスが統合されることによって、多様な特性の音声およびオーディオ信号を1つのコーデックに統合処理することが求められるようになった。しかし、従来における音声コーデックまたはオーディオコーデックは、それぞれの統合コーデックが要求している性能を提供することができなかった。すなわち、最高の性能を有するオーディオコーデックは音声信号に対して満足する性能を提供できず、最高の性能を有する音声コーデックはオーディオ信号に対して満足する性能を提供できなかったことから、従来におけるコーデックは、統合音声/オーディオコーデックに用いられることができなかった。
したがって、入力信号の特徴によって該当のモジュールを選択して各信号に最適化した符号化/復号化を行なうことのできる技術が求められている。
本発明は、音声コーデックモジュールとオーディオコーデックモジュールとを結合し、入力信号の特性に応じてコーデックモジュールを選択して適用することによって、より優れる性能を表す音声/オーディオ統合符号化/復号化装置および方法を提供する。
本発明は、時間の進み状態に応じて選択されたコーデックモジュールが変更されるときに過去モジュールの情報を用いることによって、各モジュール動作の不連続によって発生する歪曲問題を解決する音声/オーディオ統合符号化/復号化装置および方法を提供する。
本発明は、TDACを要求するMDCTモジュールにおいて重複−和のための以前情報が提供されない場合に追加的な方法を用いることによって、TDAC(Domain Aliasing Cancellation)を可能にし、正常なMDCT基盤コーデック動作を行うことのできる音声/オーディオ統合符号化/復号化装置および方法を提供する。
本発明の一実施形態に係る音声/オーディオ統合符号化装置は、入力信号の特性を分析して前記入力信号の第1フレームを符号化するための第1符号化モジュールを選択するモジュール選択部と、前記モジュール選択部の選択によって、前記入力信号を符号化して音声ビットストリームを生成する音声符号化部と、前記モジュール選択部の選択によって、前記入力信号を符号化してオーディオビットストリームを生成するオーディオ符号化部と、前記モジュール選択部の選択によって、前記音声符号化部または前記オーディオ符号化部から出力ビットストリームを生成するビットストリーム生成部とを含む。
本発明の一側面によれば、前記音声/オーディオ統合信号の符号化装置は、前記選択された符号化モジュールのモジュールIDを格納し、前記第1フレームの以前フレームに対応する符号化モジュールである第2符号化モジュールの情報を前記音声符号化部および前記オーディオ符号化部に送信するモジュールバッファと、前記入力信号を格納し、前記以前フレームに対する入力信号である過去の入力信号を出力する入力バッファと、をさらに含み、前記ビットストリーム生成部は、前記選択された符号化モジュールのモジュールIDと前記選択された符号化モジュールのビットストリームとを結合して出力ビットストリームを生成してもよい。
本発明の一側面によれば、前記モジュール選択部は、前記選択された符号化モジュールのモジュールIDを抽出し、前記モジュールIDを前記モジュールバッファおよび前記ビットストリーム生成部に伝達してもよい。
本発明の一側面によれば、前記音声符号化部は、前記第1符号化モジュールと前記第2符号化モジュールとが同一である場合、CELP構造に前記入力信号を符号化する第1音声符号化部と、前記第1符号化モジュールと前記第2符号化モジュールとが異なる場合、前記第1音声符号化部の符号化のための初期値を決定する符号化初期化部とを含んでもよい。
本発明の一側面によれば、前記第1音声符号化部は、前記第1符号化モジュールと前記第2符号化モジュールとが同一である場合、前記第1音声符号化部内の初期値を用いて符号化し、前記第1符号化モジュールと前記第2符号化モジュールとが異なる場合、前記符号化初期化部で決定された初期値を用いて符号化してもよい。
本発明の一側面によれば、前記符号化初期化部は、前記過去の入力信号に対するLPC係数を算出するLPC分析部と、前記LPC分析部で算出したLPC係数をLSP値に変換するLSP変換部と、前記過去の入力信号および前記LPC係数を用いてLPC残余信号を算出するLPC残余信号算出部と、前記LPC係数、前記LSP値、および前記LPC残余信号を用いて前記第1音声符号化部の符号化のための初期値を決定する符号化初期値決定部とを含んでもよい。
本発明の一側面によれば、前記オーディオ符号化部は、前記第1符号化モジュールと前記第2符号化モジュールとが同一である場合、MDCTの動作によって入力信号を符号化する第1オーディオ符号化部と、前記第1符号化モジュールと前記第2符号化モジュールとが異なる場合、CELP構造に入力信号を符号化する第2音声符号化部と、前記第1符号化モジュールと前記第2符号化モジュールとが異なる場合、MDCTの動作によって入力信号を符号化する第2オーディオ符号化部と、前記第1オーディオ符号化部の出力、前記第2音声符号化部の出力、および前記第2オーディオ符号化部の出力のうち1つを選択して出力ビットストリームを生成するマルチプレクサとを含んでもよい。
本発明の一側面によれば、前記第2音声符号化部は、前記第1符号化モジュールと前記第2符号化モジュールとが異なる場合、前記第1フレームの前の1/2サンプルに該当する入力信号を符号化してもよい。
本発明の一側面によれば、前記第2オーディオ符号化部は、前記第2音声符号化部の符号化動作が終了した後、LPCフィルタに対するゼロ入力応答を算出するゼロ入力応答算出部と、前記第1フレームの前の1/2サンプルに該当する入力信号をゼロに変換する第1変換部と、前記第1フレームの後の1/2サンプルに該当する入力信号から前記ゼロ入力応答を差し引く第2変換部とを含み、前記第1変換部の変換信号および前記第2変換部の変換信号を符号化してもよい。
本発明の一実施形態に係る音声/オーディオ統合信号の復号化装置は、入力ビットストリームの特性を分析して前記入力ビットストリームの第1フレームを復号化するための第1復号化モジュールを選択するモジュール選択部と、前記モジュール選択部の選択によって、前記入力ビットストリームを復号化して音声信号を生成する音声復号化部と、前記モジュール選択部の選択によって、前記入力ビットストリームを復号化してオーディオ信号を生成するオーディオ復号化部と、前記モジュール選択部の選択によって、前記音声復号化部の音声信号および前記オーディオ復号化部のオーディオ信号のうちの1つを選択して出力信号を生成する出力生成部とを含む。
本発明の一側面によれば、前記音声/オーディオ統合信号の復号化装置は、前記選択された復号化モジュールのモジュールIDを格納し、前記第1フレームの以前フレームに対する復号化モジュールである第2復号化モジュールの情報を前記音声復号化部および前記オーディオ復号化部に送信するモジュールバッファと、前記出力信号を格納し、前記以前フレームに対する出力信号である過去の出力信号を出力する出力バッファとをさらに含んでもよい。
本発明の一側面によれば、前記オーディオ復号化部は、前記第1復号化モジュールと前記第2復号化モジュールとが同一である場合、IMDCTの動作によって入力ビットストリームを復号化する第1オーディオ復号化部と、前記第1復号化モジュールと前記第2復号化モジュールとが異なる場合、CELP構造に入力ビットストリームを復号化する第2音声復号化部と、前記第1復号化モジュールと前記第2復号化モジュールとが異なる場合、IMDCTの動作によって入力ビットストリームを復号化する第2オーディオ復号化部と、前記第2音声復号化部の出力と前記第2オーディオ復号化部の出力から最終出力を算出する信号復元部と、前記信号復元部の出力または前記第1オーディオ復号化部の出力のうちの1つを選択して出力する出力選択部とを含んでもよい。
本発明の一実施形態によれば、音声コーデックモジュールとオーディオコーデックモジュールとを結合し、入力信号の特性に応じてコーデックモジュールを選択して適用することによって、より優れる性能を表す音声/オーディオ統合符号化/復号化装置および方法が提供される。
本発明の一実施形態によれば、時間の進み状態に応じて選択されたコーデックモジュールが変更されるときに過去モジュールが情報を用いることによって、各モジュール動作の不連続によって発生する歪曲問題を解決する音声/オーディオ統合符号化/復号化装置および方法が提供される。
本発明の一実施形態によれば、TDACを要求するMDCTモジュールにおいて重複−和のための以前情報が提供されない場合に追加的な方法を用いることによって、TDACを可能にし、正常なMDCT基盤コーデック動作を行うようにする音声/オーディオ統合符号化/復号化装置および方法が提供される。
本発明の一実施形態に係る音声/オーディオ統合信号の符号化装置を示す図である。 図1に示す音声符号化部の一例を示す図である。 図1に示すオーディオ符号化部の一例を示す図である。 図3に示すオーディオ符号化部の動作を説明するための図である。 本発明の一実施形態に係る音声/オーディオ統合信号の復号化装置を示す図である。 図5に示す音声復号化部の一例を示す図である。 図5に示すオーディオ復号化部の一例を示す図である。 図7に示すオーディオ復号化部の動作を説明するための図である。 本発明の一実施形態に係る音声/オーディオ統合信号の符号化方法を示すフローチャートである。 本発明の一実施形態に係る音声/オーディオ統合信号の復号化方法を示すフローチャートである。
以下、添付の図面に記載された内容を参照して本発明に係る実施形態を詳細に説明する。ただし、本発明が実施形態によって制限されたり限定されることはない。各図面に提示する同一の参照符号は同一の部材を示す。
本発明の実施形態では、統合コーデックが2つの符号化/復号化モジュールをそれぞれ含む構造を有し、音声符号化/復号化モジュールは、CELP(Code E×citation Linear Prediction)の構造を有し、オーディオ符号化/復号化モジュールはMDCT(Modified Discrete Cosine Transform)の動作を含む構造を有すると仮定する。
図1は、本発明の一実施形態に係る音声/オーディオ統合信号の符号化装置を示す図である。
図1に示すように、音声/オーディオ統合信号の符号化装置100は、モジュール選択部110、音声符号化部130、オーディオ符号化部140、およびビットストリーム生成部150を含んでもよい。
また、音声/オーディオ統合信号の符号化装置100は、モジュールバッファ120および入力バッファ160をさらに含んでもよい。
モジュール選択部110は、入力信号の特性を分析して前記入力信号の第1フレームを符号化するための第1符号化モジュールを選択してもよい。ここで、第1フレームは入力信号の現在フレームであってもよい。また、モジュール選択部110は、入力信号を分析して現在フレームを符号化するモジュールIDを決定し、第1選択された符号化モジュールに入力信号を伝達してモジュールIDをビットストリーム生成部に入力してもよい。
モジュールバッファ120は、選択された符号化モジュールのモジュールIDを格納し、前記第1フレームの以前フレームに対応する符号化モジュールの第2符号化モジュールの情報を前記音声符号化部および前記オーディオ符号化部に送信してもよい。
入力バッファ160は入力信号を格納し、前記以前フレームに対する入力信号である過去の入力信号を出力してもよい。すなわち、入力バッファは入力信号を格納し、現在フレームよりも1フレーム以前のフレームに該当する過去の入力信号を出力してもよい。
音声符号化部130は、モジュール選択部110の選択によって前記入力信号を符号化して音声ビットストリームを生成してもよい。ここで、音声符号化部130は図2を参考して以下のように詳しく説明する。
図2は、図1に示す音声符号化部130の一例を示す図である。
図2を参考すれば、音声符号化部130は、符号化初期化部210および第1音声符号化部220を含んでもよい。
符号化初期化部210は、第1符号化モジュールと第2符号化モジュールとが異なる場合、前記第1音声符号化部220の符号化のための初期値を決定してもよい。すなわち、符号化初期化部210は、過去モジュールが入力されて以前フレームがMDCTの動作を行なった場合に限って、第1音声符号化部220に提供する初期値を決定してもよい。ここで、符号化初期化部210は、LPC分析部211、LSP変換部212、LPC残余信号算出部213、および符号化初期値決定部214を含んでもよい。
LPC分析部211は、前記過去の入力信号に対するLPC(Liner predictive Coder)係数を算出してもよい。すなわち、LPC分析部211は過去の入力信号が入力され、第1音声符号化部220と同一の方法によりLPC分析を行なって過去の入力信号に該当するLPC係数を求めて出力してもよい。
LSP変換部212は、前記LPC分析部で算出したLPC係数をLSP(Linear Spectrum Pair)値に変換してもよい。
LPC残余信号算出部213は、前記過去の入力信号および前記LPC係数を用いてLPC残余信号を算出してもよい。
符号化初期値決定部214は、前記LPC係数、前記LSP値、および前記LPC残余信号を用いて第1音声符号化部220の符号化のための初期値を決定してもよい。すなわち、符号化初期値決定部214は、LPC係数、LSP値、LPC残余信号などを入力して第1音声符号化部220で要求する形態に初期値を決めて出力してもよい。
また、第1音声符号化部220は、第1符号化モジュールと第2符号化モジュールとが同一である場合、CELP構造に前記入力信号を符号化してもよい。ここで、前記第1符号化モジュールと前記第2符号化モジュールとが同一である場合に前記第1音声符号化部内の初期値を用いて符号化し、前記第1符号化モジュールと前記第2符号化モジュールとが異なる場合に前記符号化初期化部で決定された初期値を用いて符号化してもよい。例えば、第1音声符号化部220は、現在フレームよりも1フレーム以前のフレームに対して符号化を行った過去モジュールが入力され、もし、以前フレームがCELP動作を行えば、現在フレームに該当する入力信号をCELP方法により符号化してもよい。この場合、第1音声符号化部220は、連続したCELP動作を行なうため、内部的に提供される以前情報を用いて符号化動作を行なってビットストリームを生成してもよい。もし、以前フレームがMDCTの動作を行えば、第1音声符号化部220は、CELP符号化のための全ての過去情報を消し、符号化初期化部210に提供される初期値を用いて符号化動作を行なってビットストリームを生成してもよい。
再び図1に示すように、オーディオ符号化部140は、モジュール選択部110の選択によって前記入力信号を符号化してオーディオビットストリームを生成してもよい。ここで、オーディオ符号化部140は、図3および図4を参考して以下のように詳しく説明する。
図3は、図1に示すオーディオ符号化部140の一例を示す図である。
図3に示すように、オーディオ符号化部140は、第1オーディオ符号化部330、第2音声符号化部310、第2オーディオ符号化部320、およびマルチプレクサ340を含んでもよい。
第1オーディオ符号化部330は、第1符号化モジュールと第2符号化モジュールとが同一である場合、MDCT(Modified Discrete Cosine Transform)の動作によって入力信号を符号化してもよい。すなわち、第1オーディオ符号化部330は、過去モジュールが入力されて以前フレームがMDCTの動作を行えば、現在フレームに該当する入力信号もMDCTの動作を行って符号化してビットストリームを生成してもよい。生成されたビットストリームはマルチプレクサ340に入力されてもよい。
このとき、図4に示すようにXを現在フレームの入力信号とし、これを1/2フレーム長に2等分した信号をそれぞれx1、x2という。現在フレームのMDCTの動作は、未来フレームに該当するY信号を含んでXY信号に適用し、ウィンドウw1、w2、w3、w4をXYに乗算した後、MDCTを実行してもよい。ここで、w1、w2、w3、w4は、ウィンドウを1/2フレーム長に分解したそれぞれのウィンドウの欠片を意味する。もし、以前フレームがCELP動作を行えば、第1オーディオ符号化部330はいかなる動作も行なわない。
第2音声符号化部310は、第1符号化モジュールと第2符号化モジュールとが異なる場合、CELP構造で入力信号を符号化してもよい。このとき、第2音声符号化部310は過去モジュールが入力され、もし、以前フレームがCELPとして動作すれば、x1信号を符号化してビットストリームを出力してマルチプレクサ340に入力してもよい。この場合、以前フレームがCELPとして動作したことから、第2音声符号化部310は以前フレームに連続的に接続されることから、初期化の問題なしに符号化動作を行なうことができる。もし、以前フレームがMDCTの動作を行えば、第2音声符号化部310はいかなる動作も行なわない。
第2オーディオ符号化部320は、第1符号化モジュールと第2符号化モジュールとが異なる場合、MDCTの動作によって入力信号を符号化してもよい。ここで、第2オーディオ符号化部320は過去モジュールが入力されて、もし、以前フレームがCELPとして動作すれば、第1方法〜第3方法のうち1つの方法により入力信号を符号化する。第1方法は、従来のMDCTの動作に応じて入力信号を符号化してもよい。第2方法は、x1=0に入力信号を変形して、その結果を従来のMDCTの動作による方法により符号化してもよい。第3方法は、第2音声符号化部310がx1信号の符号化動作を終了した後に有するLPCフィルタに対してゼロ入力応答(zero input response)x3を求め、x2=x2−x3によってx2信号を変形し、また、x1=0にして入力信号を変形し、その結果を従来におけるMDCTの動作による方法により符号化してもよい。このとき、第2オーディオ符号化部320が用いる方法によってオーディオ復号化モジュールの信号復元機動作を決定してもよい。もし、以前フレームがMDCTの動作を行えば、第2オーディオ符号化部320はいかなる動作も行なわない。
前記符号化のために第2オーディオ符号化部320は、第2音声符号化部310の符号化動作の終了後にLPCフィルタに対するゼロ入力応答を算出するゼロ入力応答算出部(図示せず)、前記第1フレームの前の1/2サンプルに該当する入力信号をゼロに変換する第1変換部(図示せず)、および前記第1フレームの後の1/2サンプルに該当する入力信号から前記ゼロ入力応答を差し引く第2変換部(図示せず)を含み、前記第1変換部の変換信号および前記第2変換部の変換信号を符号化してもよい。
マルチプレクサ340は、第1オーディオ符号化部330の出力、第2音声符号化部310の出力、および第2オーディオ符号化部320の出力のうちの1つを選択して出力ビットストリームを生成してもよい。ここで、マルチプレクサ340は、ビットストリームを結合して最終のビットストリームを生成するものの、もし、以前フレームがMDCTの動作を行えば、最終のビットストリームは第1オーディオ符号化部330の出力ビットストリームと同一である。
再び図1を参照すれば、ビットストリーム生成部150は、選択された符号化モジュールのモジュールIDおよび前記選択された符号化モジュールのビットストリームを結合して出力ビットストリームを生成してもよい。ここで、ビットストリーム生成部150は、モジュールIDと前記モジュールIDに該当するビットストリームを結合して最終のビットストリームを生成してもよい。
図5は、本発明の一実施形態に係る音声/オーディオ統合信号の復号化装置を示す図である。
図5に示すように、音声/オーディオ統合信号の復号化装置500は、モジュール選択部510、音声復号化部530、オーディオ復号化部540、出力生成部550を含んでもよい。また、音声/オーディオ統合信号の復号化装置500は、モジュールバッファ520および出力バッファ560をさらに含んでもよい。
モジュール選択部510は、入力ビットストリームの特性を分析して前記入力ビットストリームの第1フレームを復号化するための第1復号化モジュールを選択してもよい。すなわち、モジュール選択部510は、入力ビットストリームから送信されたモジュールを分析してモジュールIDを出力し、該当の復号化モジュールに入力ビットストリームを伝達してもよい。
音声復号化部530は、モジュール選択部510の選択によって前記入力ビットストリームを復号化し、音声信号を生成してもよい。すなわち、CELPの基盤音声復号化動作を行なってもよい。ここで、音声復号化部530は、図6に基づいて以下のように詳しく説明する。
図6は、図5に示す音声復号化部の一例を示す図である。
図6に示すように、音声復号化部530は、復号化初期化部610および第1音声復号化部620を含んでもよい。
復号化初期化部610は、第1復号化モジュールと第2復号化モジュールとが異なる場合、第1音声復号化部620の復号化のための初期値を決定してもよい。すなわち、復号化初期化部610は、過去モジュールが入力されて以前フレームがMDCTの動作を行なった場合に限って、第1音声復号化部620に提供する初期値を決定してもよい。ここで、復号化初期化部610は、LPC分析部611、LSP変換部612、LPC残余信号算出部613、および復号化初期値決定部614を含んでもよい。
LPC分析部611は、前記過去の出力信号に対するLPC係数を算出してもよい。すなわち、LPC分析部611は、過去の出力信号が入力されて、第1音声復号化部620と同一の方法によりLPC分析を行なって過去の出力信号に該当するLPC係数を求めて出力してもよい。
LSP変換部612は、LPC分析部611で算出したLPC係数をLSP値に変換してもよい。
LPC残余信号算出部613は、前記過去の出力信号および前記LPC係数を用いてLPC残余信号を算出してもよい。
復号化初期値決定部614は、前記LPC係数、前記LSP値、および前記LPC残余信号を用いて第1音声復号化部620の復号化のための初期値を決定してもよい。すなわち、復号化初期値決定部614は、LPC係数、LSP値、LPC残余信号などを入力して第1音声復号化部620で要求する形態に初期値を決めて出力してもよい。
また、第1音声復号化部620は、第1復号化モジュールと第2復号化モジュールとが同一である場合、CELP構造に前記入力信号を復号化してもよい。ここで、前記第1復号化モジュールと前記第2復号化モジュールとが同一である場合、前記第1音声復号化部内の初期値を用いて符号化し、前記第1復号化モジュールと前記第2復号化モジュールとが異なる場合、前記復号化初期化部において決定された初期値を用いて復号化してもよい。すなわち、第1音声復号化部620は、現在フレームよりも1フレーム以前のフレームに対して復号化を行った過去モジュールが入力され、もし、以前フレームがCELP動作を行えば、現在フレームに該当する入力信号をCELP方法により復号化してもよい。この場合、第1音声復号化部620は、連続してCELP動作を行なうことから、内部的に提供される以前情報を用いて復号化動作を行なって出力信号を生成してもよい。もし、以前フレームがMDCTの動作を行えば、第1音声復号化部620はCELP復号化のための全ての過去情報を消して復号化初期化部610に提供される初期値を用いて復号化動作を行なって出力信号を生成してもよい。
再び図5を参照すれば、オーディオ復号化部540は、モジュール選択部510の選択によって前記入力ビットストリームを復号化し、オーディオ信号を生成してもよい。ここで、オーディオ復号化部540は、図7および図8に基づいて以下のように詳しく説明する。
図7は、図5に示すオーディオ復号化部540の一例を示す図である。
図7に示すように、オーディオ復号化部540は、第1オーディオ復号化部730、第2音声復号化部710、第2オーディオ復号化部720、信号復元部740、および出力選択部750を含んでもよい。
第1オーディオ復号化部730は、第1復号化モジュールと第2復号化モジュールとが同一である場合、IMDCT(Inverse Modified Discrete Cosine Transform)の動作に応じて入力ビットストリームを復号化してもよい。すなわち、第1オーディオ復号化部730は、過去モジュールが入力されて以前フレームがIMDCTの動作を行えば、現在フレームに該当する入力信号もIMDCTの動作を行って符号化してビットストリームを生成してもよい。すなわち、第1オーディオ復号化部730は、現在フレームの入力ビットストリームを入力し、既存の技術によってIMDCTの動作を行ってウィンドウを適用し、TDAC動作を行うことで最終の出力信号を出力する。もし、以前フレームがCELP動作を行えば、第1オーディオ復号化部730はいかなる動作も行なわない。
図8に示すように、第2音声復号化部710は、第1復号化モジュールと第2復号化モジュールとが異なる場合、CELP構造において入力ビットストリームを復号化してもよい。すなわち、第2音声復号化部710は、過去モジュールが入力されて以前フレームがCELP動作を行えば、従来の音声復号化方法によってビットストリームを復号化して出力信号を生成してもよい。このとき、第2音声復号化部710の出力信号はx4(820)であり、1/2フレーム長を有してもよい。以前フレームがCELPとして動作したことから、第2音声復号化部710は以前フレームに連続的に接続されて、初期化の問題なしに復号化動作を行なうことができる。
第2オーディオ復号化部720は、第1復号化モジュールと第2復号化モジュールとが異なる場合、IMDCTの動作によって入力ビットストリームを復号化してもよい。このとき、IMDCTの後にウィンドウだけを適用してTDAC動作を行なわず、出力信号を求めることができる。また、図8において、第2オーディオ復号化部720の出力信号をab830と定義し、aとbはそれぞれ1/2フレーム長を有する信号を意味する。
信号復元部740は、第2音声復号化部710の出力と第2オーディオ復号化部720の出力から最終出力を算出することができる。また、信号復元部740は現在フレームの最終の出力信号を求め、図8に示すように出力信号をgh850と定義し、gおよびhはそれぞれ1/2フレーム長を有する信号と定義することができる。信号復元部740は、常にg=x4と決め、h信号は第2オーディオ符号化器の動作に応じて次のうち1つの方法により信号を復元してもよい。第1方法は、下記の[数1]によってhを求めることができる。このとき、一般的なウィンドウ動作を仮定し、は信号を1/2フレーム長の単位に時間軸回転させたことを意味する。
Figure 2011528134
ここで、hは前記第1フレームの後の1/2サンプルに該当する出力信号、bは第2オーディオ復号化部出力信号、x4は第2音声復号化部出力信号、w1、w2はウィンドウ、w1、x4はそれぞれw1、x4信号を1/2フレーム長の単位に時間軸回転させた信号をそれぞれ意味する。
第2方法は下記の[数2]によってhを求めてもよい。
Figure 2011528134
ここで、hは前記第1フレームの後の1/2サンプルに該当する出力信号、bは第2オーディオ復号化部出力信号、w2はウィンドウを意味する。
第3方法は、の下[数3]によってhを求めてもよい。
Figure 2011528134
ここで、hは前記第1フレームの後の1/2サンプルに該当する出力信号、bは第2オーディオ復号化部出力信号、w2はウィンドウ、x5(840)は第2音声復号化部出力信号を復号化した後のLPCフィルタに対するゼロ入力応答をそれぞれ意味する。
このとき、以前フレームがMDCTの動作を行えば、第2音声復号化部710、第2オーディオ復号化部720、および信号復元部740はいかなる動作も行ななくてもよい。
出力選択部750は、信号復元部740の出力または第1オーディオ復号化部730の出力のうち1つを選択して出力してもよい。
再び図5を参照すれば、出力生成部550は、モジュール選択部510の選択によって音声復号化部530の音声信号およびオーディオ復号化部540のオーディオ信号のうち1つを選択して出力信号を生成してもよい。すなわち、出力生成部550は、モジュールIDにより出力信号を選択して最終の出力信号に出力してもよい。
モジュールバッファ520は、前記選択された復号化モジュールのモジュールIDを格納し、前記第1フレームの以前フレームに対する復号化モジュールの第2復号化モジュールの情報を音声復号化部530およびオーディオ復号化部540に送信してもよい。すなわち、モジュールバッファ520は、モジュールIDを格納して1フレーム以前モジュールIDに該当する過去モジュールを出力してもよい。
出力バッファ560は前記出力信号を格納し、前記以前フレームに対する出力信号の過去の出力信号を出力してもよい。
図9は、本発明の一実施形態に係る音声/オーディオ統合信号の符号化方法を示すフローチャートである。
図9に示すように、ステップ910において、入力信号を分析して現フレームを符号化する符号化モジュール種類を決定し、入力信号をバッファリングして以前フレームの入力信号を備え、現フレームのモジュール種類を格納して以前フレームのモジュール種類を備えてもよい。
ステップ920において、前記決定されたモジュールの種類が音声モジュールであるかオーディオモジュールであるかを判断してもよい。
ステップ930において、前記決定されたモジュールが音声モジュールの場合、モジュールの変更が発生したか否かを判断してもよい。
ステップ950において、モジュール変更が発生しなかった場合、既存の技術によってCELP符号化動作を行い、ステップ950においては、モジュール変更が発生した場合、符号化初期化モジュールの動作に応じて初期化を行って初期値を求め、これを用いてCELP符号化動作を行なってもよい。
ステップ940において、前記決定されたモジュールがオーディオモジュールである場合、モジュールの変更が発生したか否かを判断してもよい。
ステップ970において、モジュール変更が発生した場合、追加的な符号化動作を行なってもよい。追加的な符号化過程では、1/2フレームに該当する入力信号をCELP基盤に符号化し、全体のフレーム信号に対して第2オーディオ符号化器動作を行なってもよい。ステップ980において、モジュール変更が発生しなかった場合、既存の技術によってMDCT基盤の符号化動作を行なってもよい。
ステップ990において、モジュール種類とモジュールの変更有無に応じて最終のビットストリームを選択して出力してもよい。
図10は、本発明の一実施形態に係る音声/オーディオ統合信号の復号化方法を示すフローチャートである。
図10に示すように、ステップ1001において、入力ビットストリーム情報により現フレームの復号化モジュール種類を決定して以前フレームの出力信号を備え、現フレームのモジュール種類を格納して以前フレームのモジュール種類を備えてもよい。
ステップ1002において、前記決定されたモジュールの種類が音声モジュールであるかオーディオモジュールであるかを判断してもよい。
ステップ1003において、前記決定されたモジュールが音声モジュールである場合、モジュールの変更が発生したか否かを判断してもよい。
ステップ1005において、モジュール変更が発生しなかった場合、既存の技術によってCELP復号化動作を行い、ステップ1006においては、モジュール変更が発生した場合、復号化初期化モジュールの動作に応じて初期化を行って初期値を求め、これを用いてCELP復号化動作を行なってもよい。
ステップ1004において、前記決定されたモジュールがオーディオモジュールである場合、モジュールの変更が発生したか否かを判断してもよい。
ステップ1007において、モジュール変更が発生した場合、追加的な復号化動作を行なってもよい。追加的な復号化過程では、入力ビットストリームをCELP基盤に復号化して1/2フレーム長に該当する出力信号を求め、入力ビットストリームに対して第2オーディオ復号化部動作を行って出力信号を求める。
ステップ1008において、モジュール変更が発生しなかった場合、既存の技術によってMDCT基盤の復号化動作を行なってもよい。
ステップ1009において、信号復元機動作を行って出力信号を求め、ステップ1010においては、モジュール種類とモジュールの変更有無に応じて最終信号を選択して出力してもよい。
上記のように、音声コーデックモジュールとオーディオコーデックモジュールとを結合し、入力信号の特性に応じてコーデックモジュールを選択して適用することによって、より優れる性能を表す音声/オーディオ統合符号化/復号化装置および方法を提供することができる。
また、時間の進み状態に応じて選択されたコーデックモジュールが変更されるとき過去モジュールが情報を用いることによって、各モジュール動作の不連続によって発生する歪曲問題を解決することができ、TDACを要求するMDCTモジュールにおいて重複−和のための以前情報が提供されない場合に追加的な方法を用いることによって、TDACを可能にして正常なMDCT基盤のコーデック動作を行う音声/オーディオ統合符号化/復号化装置および方法を提供することができる。
上述したように本発明は、たとえ限定された実施形態と図面によって説明されたが、本発明は、前記の実施形態に限定されるものではなく、本発明が属する分野において通常の知識を有する者であれば、このような記載から多様な修正および変形が可能である。
したがって、本発明の範囲は説明された実施形態に限定されて決定されてはならず、後述する特許請求の範囲だけでなくこの特許請求の範囲と均等なものなどによって決まらなければならない。

Claims (20)

  1. 入力信号の特性を分析して前記入力信号の第1フレームを符号化するための第1符号化モジュールを選択するモジュール選択部と、
    前記モジュール選択部の選択によって、前記入力信号を符号化して音声ビットストリームを生成する音声符号化部と、
    前記モジュール選択部の選択によって、前記入力信号を符号化してオーディオビットストリームを生成するオーディオ符号化部と、
    前記モジュール選択部の選択によって、前記音声符号化部または前記オーディオ符号化部から出力ビットストリームを生成するビットストリーム生成部と、
    を含むことを特徴とする音声/オーディオ統合信号の符号化装置。
  2. 前記選択された符号化モジュールのモジュールIDを格納し、前記第1フレームの以前フレームに対応する符号化モジュールである第2符号化モジュールの情報を前記音声符号化部および前記オーディオ符号化部に送信するモジュールバッファと、
    前記入力信号を格納し、前記以前フレームに対する入力信号である過去の入力信号を出力する入力バッファと、をさらに含み、
    前記ビットストリーム生成部は、前記選択された符号化モジュールのモジュールIDと前記選択された符号化モジュールのビットストリームとを結合して出力ビットストリームを生成することを特徴とする請求項1に記載の音声/オーディオ統合信号の符号化装置。
  3. 前記モジュール選択部は、前記選択された符号化モジュールのモジュールIDを抽出し、前記モジュールIDを前記モジュールバッファおよび前記ビットストリーム生成部に伝達することを特徴とする請求項2に記載の音声/オーディオ統合信号の符号化装置。
  4. 前記音声符号化部は、
    前記第1符号化モジュールと前記第2符号化モジュールとが同一である場合、CELP構造に前記入力信号を符号化する第1音声符号化部と、
    前記第1符号化モジュールと前記第2符号化モジュールとが異なる場合、前記第1音声符号化部の符号化のための初期値を決定する符号化初期化部と、
    を含むことを特徴とする請求項2に記載の音声/オーディオ統合信号の符号化装置。
  5. 前記第1音声符号化部は、前記第1符号化モジュールと前記第2符号化モジュールとが同一である場合、前記第1音声符号化部内の初期値を用いて符号化し、
    前記第1符号化モジュールと前記第2符号化モジュールとが異なる場合、前記符号化初期化部で決定された初期値を用いて符号化することを特徴とする請求項4に記載の音声/オーディオ統合信号の符号化装置。
  6. 前記符号化初期化部は、
    前記過去の入力信号に対するLPC係数を算出するLPC分析部と、
    前記LPC分析部で算出したLPC係数をLSP値に変換するLSP変換部と、
    前記過去の入力信号および前記LPC係数を用いてLPC残余信号を算出するLPC残余信号算出部と、
    前記LPC係数、前記LSP値、および前記LPC残余信号を用いて前記第1音声符号化部の符号化のための初期値を決定する符号化初期値決定部と、
    を含むことを特徴とする請求項4に記載の音声/オーディオ統合信号の符号化装置。
  7. 前記オーディオ符号化部は、
    前記第1符号化モジュールと前記第2符号化モジュールとが同一である場合、MDCTの動作によって入力信号を符号化する第1オーディオ符号化部と、
    前記第1符号化モジュールと前記第2符号化モジュールとが異なる場合、CELP構造に入力信号を符号化する第2音声符号化部と、
    前記第1符号化モジュールと前記第2符号化モジュールとが異なる場合、MDCTの動作によって入力信号を符号化する第2オーディオ符号化部と、
    前記第1オーディオ符号化部の出力、前記第2音声符号化部の出力、および前記第2オーディオ符号化部の出力のうち1つを選択して出力ビットストリームを生成するマルチプレクサと、
    を含むことを特徴とする請求項2に記載の音声/オーディオ統合信号の符号化装置。
  8. 前記第2音声符号化部は、前記第1符号化モジュールと前記第2符号化モジュールとが異なる場合、前記第1フレームの前の1/2サンプルに該当する入力信号を符号化することを特徴とする請求項7に記載の音声/オーディオ統合信号の符号化装置。
  9. 前記第2オーディオ符号化部は、
    前記第2音声符号化部の符号化動作が終了した後、LPCフィルタに対するゼロ入力応答を算出するゼロ入力応答算出部と、
    前記第1フレームの前の1/2サンプルに該当する入力信号をゼロに変換する第1変換部と、
    前記第1フレームの後の1/2サンプルに該当する入力信号から前記ゼロ入力応答を差し引く第2変換部と、を含み、
    前記第1変換部の変換信号および前記第2変換部の変換信号を符号化することを特徴とする請求項7に記載の音声/オーディオ統合信号の符号化装置。
  10. 入力ビットストリームの特性を分析して前記入力ビットストリームの第1フレームを復号化するための第1復号化モジュールを選択するモジュール選択部と、
    前記モジュール選択部の選択によって、前記入力ビットストリームを復号化して音声信号を生成する音声復号化部と、
    前記モジュール選択部の選択によって、前記入力ビットストリームを復号化してオーディオ信号を生成するオーディオ復号化部と、
    前記モジュール選択部の選択によって、前記音声復号化部の音声信号および前記オーディオ復号化部のオーディオ信号のうちの1つを選択して出力信号を生成する出力生成部と、
    を含むことを特徴とする音声/オーディオ統合信号の復号化装置。
  11. 前記選択された復号化モジュールのモジュールIDを格納し、前記第1フレームの以前フレームに対する復号化モジュールである第2復号化モジュールの情報を前記音声復号化部および前記オーディオ復号化部に送信するモジュールバッファと、
    前記出力信号を格納し、前記以前フレームに対する出力信号である過去の出力信号を出力する出力バッファと、
    をさらに含むことを特徴とする請求項10に記載の音声/オーディオ統合信号の復号化装置。
  12. 前記音声復号化部は、
    前記第1復号化モジュールと前記第2復号化モジュールとが同一である場合、CELP構造に前記入力ビットストリームを復号化する第1音声復号化部と、
    前記第1復号化モジュールと前記第2復号化モジュールとが異なる場合、前記第1音声復号化部の復号化のための初期値を決定する復号化初期化部と、
    を含むことを特徴とする請求項11に記載の音声/オーディオ統合信号の復号化装置。
  13. 前記復号化初期化部は、
    前記過去の出力信号に対するLPC係数を算出するLPC分析部と、
    前記LPC分析部で算出したLPC係数をLSP値に変換するLSP変換部と、
    前記過去の出力信号および前記LPC係数を用いてLPC残余信号を算出するLPC残余信号算出部と、
    前記LPC係数、前記LSP値、および前記LPC残余信号を用いて前記第1音声復号化部の復号化のための初期値を決定する復号化初期値決定部と、
    を含むことを特徴とする請求項12に記載の音声/オーディオ統合信号の復号化装置。
  14. 前記第1音声復号化部は、前記第1復号化モジュールと前記第2復号化モジュールとが同一である場合、前記第1音声復号化部内の初期値を用いて復号化し、前記第1復号化モジュールと前記第2復号化モジュールとが異なる場合、前記復号化初期化部で決定された初期値を用いて復号化することを特徴とする請求項12に記載の音声/オーディオ統合信号の復号化装置。
  15. 前記オーディオ復号化部は、
    前記第1復号化モジュールと前記第2復号化モジュールとが同一である場合、IMDCTの動作によって入力ビットストリームを復号化する第1オーディオ復号化部と、
    前記第1復号化モジュールと前記第2復号化モジュールとが異なる場合、CELP構造に入力ビットストリームを復号化する第2音声復号化部と、
    前記第1復号化モジュールと前記第2復号化モジュールとが異なる場合、IMDCTの動作によって入力ビットストリームを復号化する第2オーディオ復号化部と、
    前記第2音声復号化部の出力と前記第2オーディオ復号化部の出力から最終出力を算出する信号復元部と、
    前記信号復元部の出力または前記第1オーディオ復号化部の出力のうちの1つを選択して出力する出力選択部と、
    を含むことを特徴とする請求項11に記載の音声/オーディオ統合信号の復号化装置。
  16. 前記第2音声復号化部は、前記第1復号化モジュールと前記第2復号化モジュールとが異なる場合、前記第1フレームの前の1/2サンプルに該当する入力ビットストリームを復号化して入力信号を出力することを特徴とする請求項15に記載の音声/オーディオ統合信号の復号化装置。
  17. 前記信号復元部は、前記第2音声復号化部の出力を前記第1フレームの前の1/2サンプルに該当する出力信号に決定することを特徴とする請求項15に記載の音声/オーディオ統合信号の復号化装置。
  18. 前記信号復元部は、下記の数1によって前記第1フレームの後の1/2サンプルに該当する出力信号を決定することを特徴とする請求項15に記載の音声/オーディオ統合信号の復号化装置。
    Figure 2011528134
    (ここで、hは前記第1フレームの後の1/2サンプルに該当する出力信号、bは第2オーディオ復号化部出力信号、x4は第2音声復号化部出力信号、w1、w2はウィンドウ、w1、x4はそれぞれw1、x4信号を1/2フレーム長の単位に時間軸に回転させた信号を意味する)
  19. 前記信号復元部は、下記の数2によって前記第1フレームの後の1/2サンプルに該当する出力信号を決定することを特徴とする請求項15に記載の音声/オーディオ統合信号の復号化装置。
    Figure 2011528134
    (ここで、hは前記第1フレームの後の1/2サンプルに該当する出力信号、bは第2オーディオ復号化部出力信号、w2はウィンドウを意味する)
  20. 前記信号復元部は、下記の[数3]によって前記第1フレームの後の1/2サンプルに該当する出力信号を決定することを特徴とする請求項15に記載の音声/オーディオ統合信号の復号化装置。
    Figure 2011528134
    (ここで、hは前記第1フレームの後の1/2サンプルに該当する出力信号、bは第2オーディオ復号化部出力信号、w2はウィンドウ、x5は第2音声復号化部出力信号を復号化した後のLPCフィルタに対するゼロ入力応答を意味する)
JP2011518644A 2008-07-14 2009-07-14 音声/オーディオ統合信号の符号化/復号化装置 Pending JP2011528134A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR20080068370 2008-07-14
KR10-2008-0068370 2008-07-14
KR10-2009-0061607 2009-07-07
KR1020090061607A KR20100007738A (ko) 2008-07-14 2009-07-07 음성/오디오 통합 신호의 부호화/복호화 장치
PCT/KR2009/003854 WO2010008175A2 (ko) 2008-07-14 2009-07-14 음성/오디오 통합 신호의 부호화/복호화 장치

Publications (1)

Publication Number Publication Date
JP2011528134A true JP2011528134A (ja) 2011-11-10

Family

ID=41816650

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011518644A Pending JP2011528134A (ja) 2008-07-14 2009-07-14 音声/オーディオ統合信号の符号化/復号化装置

Country Status (6)

Country Link
US (1) US8959015B2 (ja)
EP (2) EP3706122A1 (ja)
JP (1) JP2011528134A (ja)
KR (1) KR20100007738A (ja)
CN (1) CN102150205B (ja)
WO (1) WO2010008175A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019164348A (ja) * 2014-07-28 2019-09-26 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ オーディオ信号を処理するための方法および装置、オーディオデコーダならびにオーディオエンコーダ

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101227729B1 (ko) * 2008-07-11 2013-01-29 프라운호퍼-게젤샤프트 추르 푀르데룽 데어 안제반텐 포르슝 에 파우 샘플 오디오 신호의 프레임을 인코딩하기 위한 오디오 인코더 및 디코더
BR122021002034B1 (pt) * 2010-07-08 2021-11-03 Fraunhofer-Gesellschaft Zur Forderung Der Angewandten Forschung E. V. Codificador que utiliza cancelamento de serrilhado futuro
US9767822B2 (en) * 2011-02-07 2017-09-19 Qualcomm Incorporated Devices for encoding and decoding a watermarked signal
CN102779518B (zh) * 2012-07-27 2014-08-06 深圳广晟信源技术有限公司 用于双核编码模式的编码方法和***
KR101383915B1 (ko) * 2013-03-21 2014-04-17 한국전자통신연구원 통합 음원 디코더를 구비한 디지털 오디오 수신기
WO2014148851A1 (ko) * 2013-03-21 2014-09-25 전자부품연구원 디지털 오디오 전송시스템 및 통합 음원 디코더를 구비한 디지털 오디오 수신기
AU2014247000B2 (en) 2013-04-05 2017-04-20 Dolby International Ab Audio encoder and decoder
WO2015115798A1 (en) * 2014-01-29 2015-08-06 Samsung Electronics Co., Ltd. User terminal device and secured communication method thereof
KR102092756B1 (ko) * 2014-01-29 2020-03-24 삼성전자주식회사 사용자 단말 및 이의 보안 통신 방법
EP2980797A1 (en) 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio decoder, method and computer program using a zero-input-response to obtain a smooth transition
EP2980795A1 (en) 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoding and decoding using a frequency domain processor, a time domain processor and a cross processor for initialization of the time domain processor
EP2980794A1 (en) 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder and decoder using a frequency domain processor and a time domain processor
EP3196877A4 (en) * 2014-09-08 2018-02-28 Sony Corporation Coding device and method, decoding device and method, and program
US11276413B2 (en) 2018-10-26 2022-03-15 Electronics And Telecommunications Research Institute Audio signal encoding method and audio signal decoding method, and encoder and decoder performing the same
KR20210003507A (ko) 2019-07-02 2021-01-12 한국전자통신연구원 오디오 코딩을 위한 잔차 신호 처리 방법 및 오디오 처리 장치
KR20210003514A (ko) 2019-07-02 2021-01-12 한국전자통신연구원 오디오의 고대역 부호화 방법 및 고대역 복호화 방법, 그리고 상기 방법을 수하는 부호화기 및 복호화기

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007538283A (ja) * 2004-05-19 2007-12-27 ノキア コーポレイション オーディオ用コーダ・モード切り替え支援
WO2008016945A2 (en) * 2006-07-31 2008-02-07 Qualcomm Incorporated Systems and methods for modifying a window with a frame associated with an audio signal

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6134518A (en) * 1997-03-04 2000-10-17 International Business Machines Corporation Digital audio signal coding using a CELP coder and a transform coder
JP3211762B2 (ja) 1997-12-12 2001-09-25 日本電気株式会社 音声及び音楽符号化方式
US6658383B2 (en) * 2001-06-26 2003-12-02 Microsoft Corporation Method for coding speech and music signals
US6895375B2 (en) * 2001-10-04 2005-05-17 At&T Corp. System for bandwidth extension of Narrow-band speech
US7876966B2 (en) * 2003-03-11 2011-01-25 Spyder Navigations L.L.C. Switching between coding schemes
KR100614496B1 (ko) 2003-11-13 2006-08-22 한국전자통신연구원 가변 비트율의 광대역 음성 및 오디오 부호화 장치 및방법
GB0408856D0 (en) * 2004-04-21 2004-05-26 Nokia Corp Signal encoding
AU2004319556A1 (en) * 2004-05-17 2005-11-24 Nokia Corporation Audio encoding with different coding frame lengths
BRPI0418839A (pt) * 2004-05-17 2007-11-13 Nokia Corp método para suportar e dispositivo eletrÈnico suportando uma codificação de um sinal de áudio, sistema de codificação de áudio, e, produto de programa de software
US20070147518A1 (en) * 2005-02-18 2007-06-28 Bruno Bessette Methods and devices for low-frequency emphasis during audio compression based on ACELP/TCX
KR100647336B1 (ko) * 2005-11-08 2006-11-23 삼성전자주식회사 적응적 시간/주파수 기반 오디오 부호화/복호화 장치 및방법
KR20080101872A (ko) 2006-01-18 2008-11-21 연세대학교 산학협력단 부호화/복호화 장치 및 방법
KR101393298B1 (ko) * 2006-07-08 2014-05-12 삼성전자주식회사 적응적 부호화/복호화 방법 및 장치
EP2458588A3 (en) 2006-10-10 2012-07-04 Qualcomm Incorporated Method and apparatus for encoding and decoding audio signals
CN101202042A (zh) 2006-12-14 2008-06-18 中兴通讯股份有限公司 可扩展的数字音频编码框架及其扩展方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007538283A (ja) * 2004-05-19 2007-12-27 ノキア コーポレイション オーディオ用コーダ・モード切り替え支援
WO2008016945A2 (en) * 2006-07-31 2008-02-07 Qualcomm Incorporated Systems and methods for modifying a window with a frame associated with an audio signal

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019164348A (ja) * 2014-07-28 2019-09-26 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ オーディオ信号を処理するための方法および装置、オーディオデコーダならびにオーディオエンコーダ
JP2021107932A (ja) * 2014-07-28 2021-07-29 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ オーディオ信号を処理するための方法および装置、オーディオデコーダならびにオーディオエンコーダ
JP7202545B2 (ja) 2014-07-28 2023-01-12 フラウンホッファー-ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ オーディオ信号を処理するための方法および装置、オーディオデコーダならびにオーディオエンコーダ
US11869525B2 (en) 2014-07-28 2024-01-09 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E. V. Method and apparatus for processing an audio signal, audio decoder, and audio encoder to filter a discontinuity by a filter which depends on two fir filters and pitch lag
US12014746B2 (en) 2014-07-28 2024-06-18 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E. V. Method and apparatus for processing an audio signal, audio decoder, and audio encoder to filter a discontinuity by a filter which depends on two fir filters and pitch lag
US12033648B2 (en) 2014-07-28 2024-07-09 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Method and apparatus for processing an audio signal, audio decoder, and audio encoder for removing a discontinuity between frames by subtracting a portion of a zero-input-reponse

Also Published As

Publication number Publication date
EP3706122A1 (en) 2020-09-09
US8959015B2 (en) 2015-02-17
EP2302623A4 (en) 2016-04-13
EP2302623B1 (en) 2020-04-01
WO2010008175A3 (ko) 2010-03-18
EP2302623A2 (en) 2011-03-30
CN102150205A (zh) 2011-08-10
WO2010008175A2 (ko) 2010-01-21
CN102150205B (zh) 2013-03-27
US20110119054A1 (en) 2011-05-19
KR20100007738A (ko) 2010-01-22

Similar Documents

Publication Publication Date Title
JP2011528134A (ja) 音声/オーディオ統合信号の符号化/復号化装置
US10403293B2 (en) Apparatus for encoding and decoding of integrated speech and audio
KR101664434B1 (ko) 오디오 신호의 부호화 및 복호화 방법 및 그 장치
RU2557455C2 (ru) Прямая компенсация наложения спектров во временной области с применением в области взвешенного или исходного сигнала
KR101139172B1 (ko) 스케일러블 음성 및 오디오 코덱들에서 양자화된 mdct 스펙트럼에 대한 코드북 인덱스들의 인코딩/디코딩을 위한 기술
US7876966B2 (en) Switching between coding schemes
TWI444990B (zh) 用以利用複數預測來處理多聲道音訊信號之音訊編碼器、音訊解碼器及相關方法
US9489962B2 (en) Sound signal hybrid encoder, sound signal hybrid decoder, sound signal encoding method, and sound signal decoding method
KR101175555B1 (ko) 소리 신호 부호화 방법, 소리 신호 복호 방법, 부호화 장치, 복호 장치, 소리 신호 처리 시스템, 소리 신호 부호화 프로그램, 및 소리 신호 복호 프로그램
JP5978227B2 (ja) 予測符号化と変換符号化を繰り返す低遅延音響符号化
JP5530454B2 (ja) オーディオ符号化装置、復号装置、方法、回路およびプログラム
JP2013508770A (ja) 位相情報と残余信号を用いる符号化/復号化装置及び方法
MX2011000362A (es) Esquema de codificacion/decodificacion de audio a baja velocidad binaria y conmutadores en cascada.
JPWO2011158485A1 (ja) オーディオハイブリッド符号化装置およびオーディオハイブリッド復号装置
CN105723457A (zh) 从变换编码/解码过渡到预测编码/解码
KR101387808B1 (ko) 가변 비트율을 갖는 잔차 신호 부호화를 이용한 고품질 다객체 오디오 부호화 및 복호화 장치
Muin et al. A review of lossless audio compression standards and algorithms
US9620139B2 (en) Adaptive linear predictive coding/decoding
Muin et al. A review of lossless audio compression standards and algorithms

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120803

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20121105

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20121112

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121130

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20121214

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20121214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130329

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20130701

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130708

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130729

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20131022