JP6067601B2 - 音声/音楽統合信号の符号化/復号化装置 - Google Patents

音声/音楽統合信号の符号化/復号化装置 Download PDF

Info

Publication number
JP6067601B2
JP6067601B2 JP2014023744A JP2014023744A JP6067601B2 JP 6067601 B2 JP6067601 B2 JP 6067601B2 JP 2014023744 A JP2014023744 A JP 2014023744A JP 2014023744 A JP2014023744 A JP 2014023744A JP 6067601 B2 JP6067601 B2 JP 6067601B2
Authority
JP
Japan
Prior art keywords
signal
music
sampling rate
encoding
frequency band
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014023744A
Other languages
English (en)
Other versions
JP2014139674A (ja
Inventor
リー、テ、ジン
ベク、スン、クウォン
キム、ミンジェ
ジャン、テ、ヤン
ソ、ジョンイル
カン、キョンゴク
ホン、ジン、ウー
パク、ホチョン
パク、ヤン‐チョル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electronics and Telecommunications Research Institute ETRI
Industry Academic Collaboration Foundation of Kwangwoon University
Original Assignee
Electronics and Telecommunications Research Institute ETRI
Industry Academic Collaboration Foundation of Kwangwoon University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Electronics and Telecommunications Research Institute ETRI, Industry Academic Collaboration Foundation of Kwangwoon University filed Critical Electronics and Telecommunications Research Institute ETRI
Publication of JP2014139674A publication Critical patent/JP2014139674A/ja
Application granted granted Critical
Publication of JP6067601B2 publication Critical patent/JP6067601B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/20Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Stereophonic System (AREA)

Description

音声/音楽統合信号の符号化/復号化装置に関し、特に音声と音楽信号に対して互いに異なる構造で動作する符号化/復号化モジュールを有して入力信号の特性に応じて内部モジュールを効果的に選択し、音声/音楽すべての信号に対して効果的に符号化する方法および装置に関する。
音声信号と音楽信号は互いに異なる特性を有し、各信号の固有特性を活用して各信号に特化された音声コーデックと音楽コーデックが独立的に研究され、それぞれの標準コーデックが開発された。現在広く用いられている音声コーデック(AMR−WB+)は、CELP構造を有し、音声の発声モデルによってLPCに基づいて音声パラメータを抽出して量子化する構造を有する。一方、現在広く用いられている音楽コーデック(HE−AAC V2)は、周波数領域で人間の聴覚特性を考慮して心理音響の面で最適に周波数係数を量子化する構造を有する。
したがって、音楽信号符号化装置および音声信号符号化装置を統合すると同時に信号の特性およびビット率によって適切な符号化方式を選択し、より効果的に符号化/復号化を実行することのできるコーデックが要求される。
本発明は、入力信号の特性に応じて内部モジュールを効果的に選択することによって、多様なビット率で音声信号および音楽信号のすべてに対して優れた音質を提供する符号化/復号化装置および方法を提供する。
本発明は、サンプリング率変換の前に周波数帯域を拡張することによって、さらに広い帯域に周波数の拡張が可能な符号化/復号化装置および方法を提供する。
本発明の一実施形態に係る音声/音楽統合信号の符号化装置は、入力信号の特性を分析する入力信号分析部と、前記入力信号がステレオ信号である場合、モノラル信号でダウンミックスして、ステレオ音像情報を抽出するステレオ符号化部と、前記入力信号を高周波帯域信号に拡張する周波数帯域拡張部と、前記周波数帯域拡張部の出力信号に対するサンプリング率を変換するサンプリング率変換部と、前記入力信号が音声特性を有する信号である場合、音声符号化モジュールを用いて前記入力信号を符号化する音声信号符号化部と、前記入力信号が音楽特性を有する信号である場合、音楽符号化モジュールを用いて前記入力信号を符号化する音楽信号符号化部と、前記音声信号符号化部の出力信号および前記音楽信号符号化部の出力信号を用いてビットストリームを生成するビットストリーム生成部とを含むことができる。
本発明の一側面によれば、前記入力信号分析部は、前記入力信号のZCR(Zero Crossing Rate)、相関関係、およびフレーム単位のエネルギのうち少なくとも1つを用いて前記入力信号を分析することができる。
本発明の一側面によれば、前記ステレオ音像情報は、左/右チャネルの相関関係および左/右チャネルのレベル差のうち少なくとも1つを含むことができる。
本発明の一側面によれば、前記周波数帯域拡張部は、前記サンプリング率の変換の前に前記入力信号を高周波帯域信号に拡張することができる。
本発明の一側面によれば、前記サンプリング率変換部は、前記音声信号符号化部または音楽信号符号化部で要求するサンプリング率によって前記入力信号のサンプリング率を変換することができる。
本発明の一側面によれば、前記サンプリング率変換部は、入力信号を1/2にダウンサンプリングする第1ダウンサンプリング部と、前記第1ダウンサンプリング部の出力信号を1/2にダウンサンプリングする第2ダウンサンプリング部とを含むことができる。
本発明の一側面によれば、前記ビットストリーム生成部は、前記入力信号が音声特性信号と音楽特性信号との間で変化する場合、フレーム単位の変化を補償する情報をビットストリームに格納することができる。
本発明の一側面によれば、前記フレーム単位の変化を補償する情報は、入力信号の特性に係る時間/周波数変換方法および時間/周波数変換サイズのうち少なくとも1つを含むことができる。
本発明の一実施形態に係る音声/音楽統合信号の復号化装置は、入力されたビットストリーム信号を分析するビットストリーム分析部と、前記ビットストリーム信号が音声特性信号に対するビットストリームである場合、音声復号化モジュールを用いて前記ビットストリーム信号を解読する音声信号復号化部と、前記ビットストリーム信号が音楽特性信号に対するビットストリームである場合、音楽復号化モジュールを用いて前記ビットストリーム信号を解読する音楽信号復号化部と、前記音楽特性信号と前記音声特性信号との間の変換時変換処理を行う信号補償部と、前記ビットストリーム信号のサンプリング率を変換するサンプリング率変換部と、復号化された低周波帯域信号を用いて高周波帯域信号を生成する周波数帯域拡張部と、ステレオ拡張パラメータを用いてステレオ信号を生成するステレオ復号化部とを含むことができる。
本発明の一実施形態によれば、入力信号の特性に応じて内部モジュールを効果的に選択することによって、多様なビット率で音声信号および音楽信号のすべてに対して優れた音質を提供する符号化/復号化装置および方法が提供される。
本発明の一実施形態によれば、サンプリング率変換の前に周波数帯域を拡張することによって、さらに広い帯域に周波数の拡張が可能な符号化/復号化装置および方法が提供される。
本発明の一実施形態において、音声/音楽統合信号の符号化装置を示す図である。 図1に示したサンプリング率変換部の一例を示す図である。 本発明の一実施形態において、周波数帯域拡張部の開始および終了周波数帯域を示す図である。 本発明の一実施形態において、ビット率に係るモジュール別の動作を示す図である。 本発明の一実施形態において、音声/音楽統合信号の復号化装置を示す図である。
以下、添付する図面に記載した内容を参照しながら本発明に係る実施形態を詳細に説明する。ただし、本発明が実施形態によって制限されたり限定されることはない。各図面に提示した同一の参照符号は同一の部材を示す。
図1は、本発明の一実施形態において、音声/音楽統合信号の符号化装置を示す図である。
図1を参照すると、音声/音楽統合信号の符号化装置100は、入力信号分析部110と、ステレオ符号化部120と、周波数帯域拡張部130と、サンプリング率変換部140と、音声信号符号化部150と、音楽信号符号化部160と、ビットストリーム生成部170とを含んでもよい。
入力信号分析部110は、入力信号の特性を分析してもよい。すなわち、入力信号分析部110は、入力信号の特性を分析して音声特性を有する信号であるか、音楽特性を有する信号であるかを分離してもよい。この時、入力信号分析のために入力信号のZCR、相関関係、およびフレーム単位のエネルギのうち少なくとも1つを用いてもよい。
ステレオ符号化部120は、入力信号をモノラル信号でダウンミックスして、ステレオ音像情報を抽出してもよい。この時、ステレオ音像情報は、左/右チャネルの相関関係および左/右チャネルのレベル差のうち少なくとも1つを含んでもよい。
周波数帯域拡張部130は、入力信号を高周波帯域信号に拡張してもよい。この時、サンプリング率の変換の前に前記入力信号を高周波帯域信号に拡張してもよい。ここで、周波数帯域拡張部130の動作は、図3を参照しながら以下にて詳しく説明する。
図3は、本発明の一実施形態において、周波数帯域拡張部の開始および終了周波数帯域を示す図である。
図3の表300を参照すると、周波数帯域拡張部130は、モノラルダウンミックス信号が音楽特性信号である場合、図3に例示するように、ビット率に係る高周波帯域信号を生成するための情報を抽出してもよい。一方、音声特性信号は、一例として入力オーディオ信号のサンプリング率が48kHzである場合、start周波数帯域を6kHzに固定して、Stop周波数帯域は音楽特性信号と同一の値を用いるようにしてもよい。ここで、音声特性信号のstart周波数帯域は、音声特性信号の符号化モジュールで用いる符号化モジュールの設定によって多様な値を有することができる。また、周波数帯域拡張部130で用いるStop周波数帯域は、入力信号のサンプリング率や設定したビット率によって多様な値に設定することができる。周波数帯域拡張部130は、組成(tonality)、ブロック単位のエネルギ値などの情報を用いて動作することができる。また、音声特性信号と音楽特性信号によって周波数帯域拡張に関する情報が変わるが、前記周波数帯域拡張に関する情報を音声特性信号と音楽特性信号との間に変換が発生する時にビットストリームに格納するようにしてもよい。
再び図1を参照すると、サンプリング率変換部140は、入力信号のサンプリング率を変換してもよい。ここで、サンプリング率変換部140は、入力信号を符号化する前に入力信号を前処理する過程に該当する。したがって、サンプリング率変換部140は、入力ビット率によりコア(core)帯域の周波数帯域を変更するために、入力オーディオ信号のサンプリング率を変換してもよい。この時、サンプリング率の変換を周波数帯域の拡張の次に行うことによって、周波数帯域の拡張における周波数帯域の設定がコア帯域で用いるサンプリング率に固定されずにさらに広い帯域に拡張が可能となる。
サンプリング率変換部140を図2を参照しながら以下にて詳しく説明する。
図2は、図2に示したサンプリング率変換部の一例を示す図である。
図2を参照すると、サンプリング率変換部140は、第1ダウンサンプリング部210および第2ダウンサンプリング部220を含んでもよい。
第1ダウンサンプリング部210は、入力信号を1/2にダウンサンプリングしてもよい。例えば、第1ダウンサンプリング部210は、音楽符号化モジュールがAAC(advanced audio coding)に基づく符号化モジュールを用いる場合、1/2ダウンサンプリングを実行することができる。
第2ダウンサンプリング部220は、第1ダウンサンプリング部の出力信号を1/2にダウンサンプリングしてもよい。例えば、第2ダウンサンプリング部220は、音声符号化モジュールがAMR−WB+(Adaptive Multi−Rate Wideband Plus)に基づく符号化モジュールを用いる場合、前記第1ダウンサンプリング部の出力信号を1/2ダウンサンプリングしてもよい。
したがって、音楽信号符号化部160でAACに基づく符号化モジュールを用いる場合、サンプリング率変換部140では1/2にダウンサンプリングした信号を生成し、音声信号符号化部150でAMR−WB+に基づく符号化モジュールを用いる場合、1/4にダウンサンプリングを行ってもよい。したがって、サンプリング変換部140を音声信号符号化部150および音楽信号符号化部160の前に置いて、音声/音楽信号符号化モジュールが処理するサンプリング率が異なる時、これを予め考慮してサンプリング変換部140で処理した後に音声信号符号化モジュールまたは音楽信号符号化モジュールに入力できるようにする。
また、サンプリング率変換部140は、前記音声信号符号化部または音楽信号符号化部で要求するサンプリング率によって前記入力信号のサンプリング率を変換してもよい。
再び図1を参照すると、音声信号符号化部150は、入力信号が音声特性を有する信号である場合、音声符号化モジュールを用いて前記入力信号を符号化してもよい。ここで、入力信号が音声特性を有する信号である場合、周波数帯域拡張をしないコア帯域に対して音声特性信号符号化モジュールで符号化を行ってもよい。一方、音声信号符号化部150は、CELP(Code Excitation Linear Prediction)に基づく音声符号化モジュールを用ってもよい。
音楽信号符号化部160は、入力信号が音楽特性を有する信号である場合、音楽符号化モジュールを用いて前記入力信号を符号化してもよい。ここで、入力信号が音楽特性を有する信号である場合、周波数帯域拡張を行わないコア帯域に対して音楽特性信号符号化モジュールで符号化を行ってもよい。
一方、音楽信号符号化部160は、時間/周波数に基づく音声符号化モジュールを用いてもよい。
ビットストリーム生成部170は、音声信号符号化部の出力信号および音楽信号符号化部の出力信号を用いてビットストリームを生成してもよい。この時、ビットストリーム生成部170は、前記入力信号が音声特性信号と音楽特性信号との間で変化する場合、フレーム単位の変化を補償する情報をビットストリームに格納してもよい。ここで、前記フレーム単位の変化を補償する情報は、入力信号の特性に係る時間/周波数変換方法および時間/周波数変換サイズのうち少なくとも1つを含むことができる。前記フレーム単位の変化を補償する情報を用いて復号化装置で音声特性信号フレームと音楽特性信号フレームの間の変換を行うようにしてもよい。
一方、ターゲット(target)ビット率に係る音声/音楽統合信号の符号化装置100の動作は、図4を参照しながら以下にて詳細に説明する。
図4は、本発明の一実施形態において、ビット率に係るモジュール別の動作を示す図である。
図4の表400を参照すると、入力信号がモノである場合、ステレオ符号化モジュールをすべてOFFにし、ビット率が12kbps、16kbpsである場合、音楽特性信号符号化モジュールをOFFにしてもよい。ここで、ビット率12kbps、16kbpsで音楽特性信号符号化モジュールをOFFする理由は、低いビット率ではCELPに基づく音声符号化モジュールを用いて音楽特性信号を符号化することが音楽符号化モジュールを用いて符号化することより優れた音質を示すためである。したがって、ビット率12kbps、16kbpsでモノ入力信号に対する符号化は、音楽符号化モジュール、ステレオ符号化モジュール、入力信号分析モジュールをOFFした後、音声信号符号化モジュールと周波数帯域拡張モジュールだけを用いることができる。
ビット率20kbps、24kbps、32kbpsでは、音声特性信号と音楽特性信号によって音声信号符号化モジュールと音楽信号符号化モジュールを交換しながら用いるてもよ。すなわち、入力信号分析モジュールで入力信号を分析して音声特性信号である場合、音声符号化モジュールによって符号化し、音楽特性信号である場合、音楽符号化モジュールを用いて符号化してもよい。
ビット率64kbpsでは、使用可能なビットが充分であるため、時間/周波数変換に基づく音楽符号化モジュールの性能が向上する。したがって、64kbpsでは、音声符号化モジュールと入力信号分析モジュールをOFFと、入力信号をすべて音楽符号化モジュールおよび周波数帯域拡張モジュールを用いて符号化してもよい。
入力信号がステレオである場合、ステレオ符号化モジュールを動作させることができる。ビット率12kbps、16kbps、20kbpsで符号化する場合、音楽符号化モジュールと入力信号分析モジュールをすべてOFFにした後、すべての入力信号をステレオ符号化モジュール、周波数帯域拡張モジュールおよび音声符号化モジュールによって符号化してもよい。一般的にステレオ符号化モジュールで用いるビットは4kbps以下であるため、20kbpsでステレオ入力信号を符号化する場合、16kbpsでダウンミックスしたモノラル信号を符号化しなければならない。この帯域は、音声符号化モジュールが音楽符号化モジュールより優れた性能を示すため、入力信号分析モジュールをOFFし、すべての入力信号に対して音声符号化モジュールを用いて符号化を行ってもよい。
入力ステレオ信号に対してビット率24kbps、32kbpsで符号化する場合、入力信号分析モジュールの結果に応じて音声特性信号は音声符号化モジュールを用いて符号化し、音楽特性信号は音楽符号化モジュールを用いて符号化を行ってもよい。
ステレオ信号をビット率64kbpsで符号化する場合、使用可能ビットが多いため、音楽特性信号符号化モジュールだけを用いて入力信号を符号化してもよい。
例えば、音声符号化装置のAMR−WB+と音楽符号化装置のHE−AAC V2(High−Efficiency Advanced Audio Coding version 2)を用いて統合音声/音楽統合信号の符号化装置100を構成する場合、AMR−WB+のステレオモジュールと周波数帯域拡張モジュールの性能が優れていないために、HE−AAC V2のPS(Parametric Stereo)モジュールとSBR(Spectral Band Replication)モジュールを用いてステレオ信号に対する処理と周波数帯域の拡張を行える。
12kbps、16kbpsモノラル信号に対しては、CELPに基づくAMR−WB+の性能が優れているため、コア帯域の符号化はAMR−WB+のACELP(Algebraic Code Excited Linear Prediction)/TCX(Transform Coded Excitation)モジュールを用いて、周波数帯域の拡張にはHE−AAC V2のSBR(Spectral Band Replication)モジュールを用いてもよい。
20kbps、24kbps、32kbpsでは、入力信号を分析して音声特性信号である場合、AMR−WB+のACELP/TCXモジュール、音楽特性信号である場合、HE−AAC V2のAACモジュールを用いてコア帯域を符号化し、HE−AAC V2のSBRを用いて周波数帯域の拡張を行ってもよい。
64kbpsでは、コア帯域の符号化にHE−AAC V2のAACモジュールだけを用いて符号化を行ってもよい。
ステレオ入力に対しては、HE−AAC V2のPSモジュールを用いてステレオ符号化を行い、モードによって適切なARM−WB+のACELP/TCXモジュールとHE−AAC V2のAACモジュールを選択してコア帯域に対する符号化を行ってもよい。
上記のように、入力信号の特性に応じて内部モジュールを効果的に選択することにより、多様なビット率で音声信号および音楽信号のすべてに対して優れた音質を提供し、サンプリング率変換の前に周波数帯域を拡張することによって、さらに広い帯域で周波数拡張が可能となり得る。
図5は、本発明の一実施形態において、音声/音楽統合信号の復号化装置を示す図である。
図5を参照すると、音声/音楽統合信号の復号化装置500は、ビットストリーム分析部510、音声信号復号化部520、音楽信号復号化部530、信号補償部540、サンプリング率変換部550、周波数帯域拡張部560、およびステレオ復号化部570を含むことができる。
ビットストリーム分析部510は、入力されたビットストリーム信号を分析してもよい。
音声信号復号化部520は、ビットストリーム信号が音声特性信号に対するビットストリームである場合、音声復号化モジュールを用いて前記ビットストリーム信号を復号化してもよい。
音楽信号復号化部530は、ビットストリーム信号が音楽特性信号に対するビットストリームである場合、音楽復号化モジュールを用いて前記ビットストリーム信号を復号化してもよい。
信号補償部540は、音楽特性信号と音声特性信号との間の変換時の変換処理を行うことができる。すなわち、音声特性信号と音楽特性信号との間の変換時に、アーチファクト(artifact)が発生しないように、それぞれの特性に係る変換情報を用いて滑らかに音声特性信号と音楽特性信号との間を変換するように処理してもよい。
サンプリング率変換部550は、ビットストリーム信号のサンプリング率を変換してもよい。したがって、サンプリング率変換部550は、コア帯域で用いたサンプリング率を円サンプリング率に変換して周波数帯域拡張モジュールやステレオ符号化モジュールで用いるための信号を生成してもよい。すなわち、コア帯域で変換して用いたサンプリング率を変換前サンプリング率によって再変換し、周波数帯域拡張モジュールやステレオ符号化モジュールで用いるための信号を生成してもよい。
周波数帯域拡張部560は、復号化された低周波帯域信号を用いて高周波帯域信号を生成してもよい。
ステレオ復号化部570は、ステレオ拡張パラメータを用いてステレオ信号を生成してもよい。
上述したように、本発明では具体的な構成要素などの特定事項と限定される実施形態および図面によって説明したが、これは本発明のより全般的な理解を助けるために提供したものに過ぎず、本発明は、前記の実施形態に限定されるものではなく、本発明が属する分野で通常の知識を有する者であれば、このような記載から多様な修正および変形が可能である。したがって、本発明の思想は説明した実施形態に限定して決定されてはならず、後述する特許請求の範囲だけでなくこの特許請求の範囲と均等または等価的変形のある全てのものは本発明の思想の範疇に属するといえる。

Claims (1)

  1. 入力されたビットストリーム信号をフレーム単位で分析するステップと、
    前記ビットストリーム信号のフレームが音声特性信号である場合、音声復号化モジュールを用いて前記音声特性信号のコア帯域を復号化するステップと、
    前記ビットストリーム信号のフレームが音特性信号である場合、音楽復号化モジュールを用いて前記音特性信号のコア帯域を復号化するステップと、
    前記ビットストリーム信号で前記復号化された音楽特性信号と前記復号化された音声特性信号との間の変換時変換処理を行うステップと、
    前記変換処理されたビットストリーム信号のサンプリング率を変換するステップと、
    前記サンプリング率が変換されたビットストリーム信号で復号化された低周波帯域信号を用いて高周波帯域信号を生成するステップと、
    ステレオ拡張パラメータを用いて前記高周波帯域信号が生成されたビットストリーム信号からステレオ信号を生成するステップと、
    を含み、
    前記コア帯域は、周波数帯域が拡張されない周波数帯域であり、
    前記ビットストリーム信号は、入力ビット率によりコア帯域の周波数帯域を変更するために、1/2ダウンサンプリングしたり、または1/2ダウンサンプリングした後、さらに1/2ダウンサンプリングしてサンプリング率が変換された入力信号が付号化された結果であり、
    前記ビットストリーム信号分析ステップの出力結果は、ビットストリーム信号のフレームの特性に応じて音声復号化モジュールまたは音楽復号化モジュールのうちいずれか1つで入力され、
    前記サンプリング率を変換するステップは、
    コア帯域で1/2にダウンサンプリングして用いたサンプリング率、またはコア帯域で1/2にダウンサンプリングした結果に対して、さらに1/2にダウンサンプリングして用いたサンプリング率を変換前の元のサンプリング率によって再変換する音声/音楽統合信号の復号化方法。
JP2014023744A 2008-07-14 2014-02-10 音声/音楽統合信号の符号化/復号化装置 Active JP6067601B2 (ja)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
KR10-2008-0068369 2008-07-14
KR20080068369 2008-07-14
KR20080134297 2008-12-26
KR10-2008-0134297 2008-12-26
KR1020090061608A KR101381513B1 (ko) 2008-07-14 2009-07-07 음성/음악 통합 신호의 부호화/복호화 장치
KR10-2009-0061608 2009-07-07

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011517359A Division JP2011527032A (ja) 2008-07-14 2009-07-14 音声/音楽統合信号の符号化/復号化装置

Publications (2)

Publication Number Publication Date
JP2014139674A JP2014139674A (ja) 2014-07-31
JP6067601B2 true JP6067601B2 (ja) 2017-01-25

Family

ID=41816651

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2011517359A Pending JP2011527032A (ja) 2008-07-14 2009-07-14 音声/音楽統合信号の符号化/復号化装置
JP2013152997A Pending JP2013232007A (ja) 2008-07-14 2013-07-23 音声/音楽統合信号の符号化/復号化装置
JP2014023744A Active JP6067601B2 (ja) 2008-07-14 2014-02-10 音声/音楽統合信号の符号化/復号化装置

Family Applications Before (2)

Application Number Title Priority Date Filing Date
JP2011517359A Pending JP2011527032A (ja) 2008-07-14 2009-07-14 音声/音楽統合信号の符号化/復号化装置
JP2013152997A Pending JP2013232007A (ja) 2008-07-14 2013-07-23 音声/音楽統合信号の符号化/復号化装置

Country Status (6)

Country Link
US (6) US8903720B2 (ja)
EP (2) EP2302624B1 (ja)
JP (3) JP2011527032A (ja)
KR (2) KR101381513B1 (ja)
CN (2) CN102150204B (ja)
WO (1) WO2010008176A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9771826B2 (en) 2009-07-31 2017-09-26 General Electric Company Components with environmental barrier coatings having improved surface roughness
US9926805B2 (en) 2009-07-31 2018-03-27 General Electric Company Solvent based slurry compositions for making environmental barrier coatings and environmental barrier coatings comprising the same

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101381513B1 (ko) * 2008-07-14 2014-04-07 광운대학교 산학협력단 음성/음악 통합 신호의 부호화/복호화 장치
JP5565405B2 (ja) * 2011-12-21 2014-08-06 ヤマハ株式会社 音響処理装置および音響処理方法
JP2014074782A (ja) * 2012-10-03 2014-04-24 Sony Corp 音声送信装置、音声送信方法、音声受信装置および音声受信方法
WO2014161996A2 (en) 2013-04-05 2014-10-09 Dolby International Ab Audio processing system
EP3503095A1 (en) 2013-08-28 2019-06-26 Dolby Laboratories Licensing Corp. Hybrid waveform-coded and parametric-coded speech enhancement
EP3561809B1 (en) 2013-09-12 2023-11-22 Dolby International AB Method for decoding and decoder.
FR3017484A1 (fr) * 2014-02-07 2015-08-14 Orange Extension amelioree de bande de frequence dans un decodeur de signaux audiofrequences
JP6599368B2 (ja) * 2014-02-24 2019-10-30 サムスン エレクトロニクス カンパニー リミテッド 信号分類方法及びその装置、並びにそれを利用したオーディオ符号化方法及びその装置
CN105023577B (zh) * 2014-04-17 2019-07-05 腾讯科技(深圳)有限公司 混音处理方法、装置和***
EP3217612A4 (en) * 2014-04-21 2017-11-22 Samsung Electronics Co., Ltd. Device and method for transmitting and receiving voice data in wireless communication system
KR102244612B1 (ko) 2014-04-21 2021-04-26 삼성전자주식회사 무선 통신 시스템에서 음성 데이터를 송신 및 수신하기 위한 장치 및 방법
CN107452391B (zh) 2014-04-29 2020-08-25 华为技术有限公司 音频编码方法及相关装置
WO2016108655A1 (ko) * 2014-12-31 2016-07-07 한국전자통신연구원 다채널 오디오 신호의 인코딩 방법 및 상기 인코딩 방법을 수행하는 인코딩 장치, 그리고, 다채널 오디오 신호의 디코딩 방법 및 상기 디코딩 방법을 수행하는 디코딩 장치
KR20160081844A (ko) 2014-12-31 2016-07-08 한국전자통신연구원 다채널 오디오 신호의 인코딩 방법 및 상기 인코딩 방법을 수행하는 인코딩 장치, 그리고, 다채널 오디오 신호의 디코딩 방법 및 상기 디코딩 방법을 수행하는 디코딩 장치
EP3107096A1 (en) 2015-06-16 2016-12-21 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Downscaled decoding
GB2549922A (en) * 2016-01-27 2017-11-08 Nokia Technologies Oy Apparatus, methods and computer computer programs for encoding and decoding audio signals
EP3288031A1 (en) 2016-08-23 2018-02-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for encoding an audio signal using a compensation value
CN108269577B (zh) 2016-12-30 2019-10-22 华为技术有限公司 立体声编码方法及立体声编码器
CN111133510B (zh) * 2017-09-20 2023-08-22 沃伊斯亚吉公司 用于在celp编解码器中高效地分配比特预算的方法和设备
CN112509591B (zh) * 2020-12-04 2024-05-14 北京百瑞互联技术股份有限公司 一种音频编解码方法及***
CN112599138B (zh) * 2020-12-08 2024-05-24 北京百瑞互联技术股份有限公司 一种lc3音频编码器的多pcm信号编码方法、装置及介质
KR20220117019A (ko) 2021-02-16 2022-08-23 한국전자통신연구원 학습 모델을 이용한 오디오 신호의 부호화 및 복호화 방법과 그 학습 모델의 트레이닝 방법 및 이를 수행하는 부호화기 및 복호화기
KR20220158395A (ko) 2021-05-24 2022-12-01 한국전자통신연구원 오디오 신호의 부호화 및 복호화 방법과 그 방법을 수행하는 부호화기 및 복호화기
CN117907166B (zh) * 2024-03-19 2024-06-21 安徽省交通规划设计研究总院股份有限公司 基于声音处理的无砂混凝土集料粒径确定方法

Family Cites Families (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5459814A (en) * 1993-03-26 1995-10-17 Hughes Aircraft Company Voice activity detector for speech signals in variable background noise
JPH0738437A (ja) * 1993-07-19 1995-02-07 Sharp Corp コーデック装置
JPH0897726A (ja) 1994-09-28 1996-04-12 Victor Co Of Japan Ltd サブバンド帯域分割/合成方法およびその装置
US6134518A (en) 1997-03-04 2000-10-17 International Business Machines Corporation Digital audio signal coding using a CELP coder and a transform coder
JP3017715B2 (ja) * 1997-10-31 2000-03-13 松下電器産業株式会社 音声再生装置
JP3211762B2 (ja) * 1997-12-12 2001-09-25 日本電気株式会社 音声及び音楽符号化方式
ATE302991T1 (de) * 1998-01-22 2005-09-15 Deutsche Telekom Ag Verfahren zur signalgesteuerten schaltung zwischen verschiedenen audiokodierungssystemen
JP3327240B2 (ja) 1999-02-10 2002-09-24 日本電気株式会社 画像・音声符号化装置
US7222070B1 (en) * 1999-09-22 2007-05-22 Texas Instruments Incorporated Hybrid speech coding and system
US6351733B1 (en) * 2000-03-02 2002-02-26 Hearing Enhancement Company, Llc Method and apparatus for accommodating primary content audio and secondary content remaining audio capability in the digital audio production process
US7266501B2 (en) * 2000-03-02 2007-09-04 Akiba Electronics Institute Llc Method and apparatus for accommodating primary content audio and secondary content remaining audio capability in the digital audio production process
EP1440433B1 (en) * 2001-11-02 2005-05-04 Matsushita Electric Industrial Co., Ltd. Audio encoding and decoding device
US6785645B2 (en) * 2001-11-29 2004-08-31 Microsoft Corporation Real-time speech and music classifier
US7337108B2 (en) * 2003-09-10 2008-02-26 Microsoft Corporation System and method for providing high-quality stretching and compression of a digital audio signal
JP2005099243A (ja) 2003-09-24 2005-04-14 Konica Minolta Medical & Graphic Inc 銀塩光熱写真ドライイメージング材料及び画像形成方法
JP4679049B2 (ja) * 2003-09-30 2011-04-27 パナソニック株式会社 スケーラブル復号化装置
KR100614496B1 (ko) 2003-11-13 2006-08-22 한국전자통신연구원 가변 비트율의 광대역 음성 및 오디오 부호화 장치 및방법
CA2457988A1 (en) * 2004-02-18 2005-08-18 Voiceage Corporation Methods and devices for audio compression based on acelp/tcx coding and multi-rate lattice vector quantization
WO2005086139A1 (en) * 2004-03-01 2005-09-15 Dolby Laboratories Licensing Corporation Multichannel audio coding
CA2555182C (en) * 2004-03-12 2011-01-04 Nokia Corporation Synthesizing a mono audio signal based on an encoded multichannel audio signal
JP4367657B2 (ja) * 2004-04-09 2009-11-18 日本電気株式会社 音声通信方法及び装置
SE0400998D0 (sv) 2004-04-16 2004-04-16 Cooding Technologies Sweden Ab Method for representing multi-channel audio signals
JP2006325162A (ja) 2005-05-20 2006-11-30 Matsushita Electric Ind Co Ltd バイノーラルキューを用いてマルチチャネル空間音声符号化を行うための装置
US7953605B2 (en) * 2005-10-07 2011-05-31 Deepen Sinha Method and apparatus for audio encoding and decoding using wideband psychoacoustic modeling and bandwidth extension
KR100647336B1 (ko) * 2005-11-08 2006-11-23 삼성전자주식회사 적응적 시간/주파수 기반 오디오 부호화/복호화 장치 및방법
EP1989703A4 (en) * 2006-01-18 2012-03-14 Lg Electronics Inc DEVICE AND METHOD FOR CODING AND DECODING A SIGNAL
US7953604B2 (en) * 2006-01-20 2011-05-31 Microsoft Corporation Shape and scale parameters for extended-band frequency coding
KR20070077652A (ko) 2006-01-24 2007-07-27 삼성전자주식회사 적응적 시간/주파수 기반 부호화 모드 결정 장치 및 이를위한 부호화 모드 결정 방법
US20080004883A1 (en) * 2006-06-30 2008-01-03 Nokia Corporation Scalable audio coding
KR101393298B1 (ko) 2006-07-08 2014-05-12 삼성전자주식회사 적응적 부호화/복호화 방법 및 장치
WO2008035949A1 (en) * 2006-09-22 2008-03-27 Samsung Electronics Co., Ltd. Method, medium, and system encoding and/or decoding audio signals by using bandwidth extension and stereo coding
US9009032B2 (en) * 2006-11-09 2015-04-14 Broadcom Corporation Method and system for performing sample rate conversion
US20080114608A1 (en) * 2006-11-13 2008-05-15 Rene Bastien System and method for rating performance
KR101434198B1 (ko) 2006-11-17 2014-08-26 삼성전자주식회사 신호 복호화 방법
KR100964402B1 (ko) 2006-12-14 2010-06-17 삼성전자주식회사 오디오 신호의 부호화 모드 결정 방법 및 장치와 이를 이용한 오디오 신호의 부호화/복호화 방법 및 장치
KR100883656B1 (ko) * 2006-12-28 2009-02-18 삼성전자주식회사 오디오 신호의 분류 방법 및 장치와 이를 이용한 오디오신호의 부호화/복호화 방법 및 장치
US9653088B2 (en) * 2007-06-13 2017-05-16 Qualcomm Incorporated Systems, methods, and apparatus for signal encoding using pitch-regularizing and non-pitch-regularizing coding
US8046214B2 (en) * 2007-06-22 2011-10-25 Microsoft Corporation Low complexity decoder for complex transform coding of multi-channel sound
US8566107B2 (en) * 2007-10-15 2013-10-22 Lg Electronics Inc. Multi-mode method and an apparatus for processing a signal
US20090164223A1 (en) * 2007-12-19 2009-06-25 Dts, Inc. Lossless multi-channel audio codec
KR101381513B1 (ko) 2008-07-14 2014-04-07 광운대학교 산학협력단 음성/음악 통합 신호의 부호화/복호화 장치

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9771826B2 (en) 2009-07-31 2017-09-26 General Electric Company Components with environmental barrier coatings having improved surface roughness
US9926805B2 (en) 2009-07-31 2018-03-27 General Electric Company Solvent based slurry compositions for making environmental barrier coatings and environmental barrier coatings comprising the same
US10094237B2 (en) 2009-07-31 2018-10-09 General Electric Company Solvent based environmental barrier coatings for high temperature ceramic components
US10487686B2 (en) 2009-07-31 2019-11-26 General Electric Company Solvent based slurry compositions for making environmental barrier coatings and environmental barrier coatings comprising the same

Also Published As

Publication number Publication date
CN103531203A (zh) 2014-01-22
KR20100007739A (ko) 2010-01-22
US20190385621A1 (en) 2019-12-19
CN102150204A (zh) 2011-08-10
JP2013232007A (ja) 2013-11-14
EP2302624A1 (en) 2011-03-30
CN103531203B (zh) 2018-04-20
US20150095023A1 (en) 2015-04-02
US11705137B2 (en) 2023-07-18
WO2010008176A1 (ko) 2010-01-21
US9818411B2 (en) 2017-11-14
US20180068667A1 (en) 2018-03-08
US10403293B2 (en) 2019-09-03
JP2014139674A (ja) 2014-07-31
KR101565634B1 (ko) 2015-11-04
US10714103B2 (en) 2020-07-14
US8903720B2 (en) 2014-12-02
US20240119948A1 (en) 2024-04-11
EP2302624A4 (en) 2012-10-31
KR101381513B1 (ko) 2014-04-07
US20200349958A1 (en) 2020-11-05
EP3493204B1 (en) 2023-11-01
CN102150204B (zh) 2015-03-11
KR20120089222A (ko) 2012-08-09
US20110119055A1 (en) 2011-05-19
JP2011527032A (ja) 2011-10-20
EP3493204A1 (en) 2019-06-05
EP2302624B1 (en) 2018-12-26

Similar Documents

Publication Publication Date Title
JP6067601B2 (ja) 音声/音楽統合信号の符号化/復号化装置
US11676611B2 (en) Audio decoding device and method with decoding branches for decoding audio signal encoded in a plurality of domains
CA2727883C (en) Audio encoding/decoding scheme having a switchable bypass
CN104299618A (zh) 统合地编码语音信号和音频信号的编码方法和解码方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150409

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20150925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20160126

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20160218

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20160408

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161221

R150 Certificate of patent or registration of utility model

Ref document number: 6067601

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250