JP5046652B2 - 音声符号化装置および音声符号化方法 - Google Patents

音声符号化装置および音声符号化方法 Download PDF

Info

Publication number
JP5046652B2
JP5046652B2 JP2006550764A JP2006550764A JP5046652B2 JP 5046652 B2 JP5046652 B2 JP 5046652B2 JP 2006550764 A JP2006550764 A JP 2006550764A JP 2006550764 A JP2006550764 A JP 2006550764A JP 5046652 B2 JP5046652 B2 JP 5046652B2
Authority
JP
Japan
Prior art keywords
signal
channel
monaural
encoding
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006550764A
Other languages
English (en)
Other versions
JPWO2006070751A1 (ja
Inventor
幸司 吉田
道代 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2006550764A priority Critical patent/JP5046652B2/ja
Publication of JPWO2006070751A1 publication Critical patent/JPWO2006070751A1/ja
Application granted granted Critical
Publication of JP5046652B2 publication Critical patent/JP5046652B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/24Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Quality & Reliability (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Reduction Or Emphasis Of Bandwidth Of Signals (AREA)

Description

本発明は、音声符号化装置および音声符号化方法に関し、特に、ステレオ音声のための音声符号化装置および音声符号化方法に関する。
移動体通信やIP通信での伝送帯域の広帯域化、サービスの多様化に伴い、音声通信において高音質化、高臨場感化のニーズが高まっている。例えば、今後、テレビ電話サービスにおけるハンズフリー形態での通話、テレビ会議における音声通信、多地点で複数話者が同時に会話を行うような多地点音声通信、臨場感を保持したまま周囲の音環境を伝送できるような音声通信などの需要が増加すると見込まれる。その場合、モノラル信号より臨場感があり、また複数話者の発話位置が認識できるような、ステレオ音声による音声通信を実現することが望まれる。このようなステレオ音声による音声通信を実現するためには、ステレオ音声の符号化が必須となる。
また、IPネットワーク上での音声データ通信において、ネットワーク上のトラフィック制御やマルチキャスト通信実現のために、スケーラブルな構成を有する音声符号化が望まれている。スケーラブルな構成とは、受信側で部分的な符号化データからでも音声データの復号が可能な構成をいう。
よって、ステレオ音声を符号化し伝送する場合にも、ステレオ信号の復号と、符号化データの一部を用いたモノラル信号の復号とを受信側において選択可能な、モノラル−ステレオ間でのスケーラブル構成(モノラル−ステレオ・スケーラブル構成)を有する符号化が望まれる。
このような、モノラル−ステレオ・スケーラブル構成を有する音声符号化方法としては、例えば、チャネル(以下、適宜「ch」と略す)間の信号の予測(第1ch信号から第2ch信号の予測、または、第2ch信号から第1ch信号の予測)を、チャネル相互間のピッチ予測により行う、すなわち、2チャネル間の相関を利用して符号化を行うものがある(非特許文献1参照)。
Ramprashad, S.A., "Stereophonic CELP coding using cross channel prediction", Proc. IEEE Workshop on Speech Coding, pp.136-138, Sep. 2000.
しかしながら、上記非特許文献1記載の音声符号化方法では、双方のチャネル間の相関が小さい場合には、チャネル間の予測の性能(予測ゲイン)が低下してしまい、符号化効率が劣化する。
本発明の目的は、モノラル−ステレオ・スケーラブル構成を有する音声符号化において、ステレオ信号の複数チャネル信号間の相関が小さい場合でも効率的にステレオ音声を符号化することができる音声符号化装置および音声符号化方法を提供することである。
本発明の音声符号化装置は、コアレイヤのモノラル信号を用いた符号化を行う第1符号化手段と、拡張レイヤのステレオ信号を用いた符号化を行う第2符号化手段と、を具備し、前記第1符号化手段は、第1チャネル信号および第2チャネル信号を含むステレオ信号を入力信号として、前記第1チャネル信号および前記第2チャネル信号からモノラル信号を生成する生成手段を具備し、前記第2符号化手段は、前記モノラル信号を符号化して得られるモノラル駆動音源信号に基づいて、前記第1チャネル信号または前記第2チャネル信号の予測信号を合成する合成手段を具備する構成を採る。
本発明によれば、ステレオ信号の複数チャネル信号間の相関が小さい場合でも効率的にステレオ音声を符号化することができる。
以下、モノラル−ステレオ・スケーラブル構成を有する音声符号化に関する本発明の実施の形態について、添付図面を参照して詳細に説明する。
(実施の形態1)
本実施の形態に係る音声符号化装置の構成を図1に示す。図1に示す音声符号化装置100は、モノラル信号のためのコアレイヤ符号化部110とステレオ信号のための拡張レイヤ符号化部120とを備える。なお、以下の説明では、フレーム単位での動作を前提にして説明する。
コアレイヤ符号化部110において、モノラル信号生成部111は、入力される第1ch音声信号s_ch1(n)、第2ch音声信号s_ch2(n)(但し、n=0〜NF-1;NFはフレーム長)から、式(1)に従ってモノラル信号s_mono(n)を生成し、モノラル信号符号化部112に出力する。
Figure 0005046652
モノラル信号符号化部112は、モノラル信号s_mono(n)に対する符号化を行い、このモノラル信号の符号化データをモノラル信号復号部113に出力する。また、このモノラル信号の符号化データは、拡張レイヤ符号化部120から出力される量子化符号や符号化データと多重されて符号化データとして音声復号装置へ伝送される。
モノラル信号復号部113は、モノラル信号の符号化データからモノラルの復号信号を生成して拡張レイヤ符号化部120に出力する。
拡張レイヤ符号化部120において、第1ch予測フィルタ分析部121は、第1ch音声信号s_ch1(n)とモノラル復号信号とから第1ch予測フィルタパラメータを求めて量子化し、第1ch予測フィルタ量子化パラメータを第1ch予測信号合成部122に出力する。なお、第1ch予測フィルタ分析部121への入力として、モノラル復号信号の代わりに、モノラル信号生成部111の出力であるモノラル信号s_mono(n)を用いてもよい。また、第1ch予測フィルタ分析部121は、第1ch予測フィルタ量子化パラメータを符号化した第1ch予測フィルタ量子化符号を出力する。この第1ch予測フィルタ量子化符号は他の符号化データや量子化符号と多重されて符号化データとして音声復号装置へ伝送される。
第1ch予測信号合成部122は、モノラル復号信号と第1ch予測フィルタ量子化パラメータとから第1ch予測信号を合成し、その第1ch予測信号を減算器123に出力する。第1ch予測信号合成部122の詳細については後述する。
減算器123は、入力信号である第1ch音声信号と第1ch予測信号との差、すなわち、第1ch入力音声信号に対する第1ch予測信号の残差成分の信号(第1ch予測残差信号)を求め、第1ch予測残差信号符号化部124に出力する。
第1ch予測残差信号符号化部124は、第1ch予測残差信号を符号化して第1ch予測残差符号化データを出力する。この第1ch予測残差符号化データは他の符号化データや量子化符号と多重されて符号化データとして音声復号装置へ伝送される。
一方、第2ch予測フィルタ分析部125は、第2ch音声信号s_ch2(n)とモノラル復号信号とから第2ch予測フィルタパラメータを求めて量子化し、第2ch予測フィルタ量子化パラメータを第2ch予測信号合成部126に出力する。また、第2ch予測フィルタ分析部125は、第2ch予測フィルタ量子化パラメータを符号化した第2ch予測フィルタ量子化符号を出力する。この第2ch予測フィルタ量子化符号は他の符号化データや量子化符号と多重されて符号化データとして音声復号装置へ伝送される。
第2ch予測信号合成部126は、モノラル復号信号と第2ch予測フィルタ量子化パラメータとから第2ch予測信号を合成し、その第2ch予測信号を減算器127に出力する。第2ch予測信号合成部126の詳細については後述する。
減算器127は、入力信号である第2ch音声信号と第2ch予測信号との差、すなわち、第2ch入力音声信号に対する第2ch予測信号の残差成分の信号(第2ch予測残差信号)を求め、第2ch予測残差信号符号化部128に出力する。
第2ch予測残差信号符号化部128は、第2ch予測残差信号を符号化して第2ch
予測残差符号化データを出力する。この第2ch予測残差符号化データは他の符号化データや量子化符号と多重されて符号化データとして音声復号装置へ伝送される。
次いで、第1ch予測信号合成部122および第2ch予測信号合成部126の詳細について説明する。第1ch予測信号合成部122および第2ch予測信号合成部126の構成は図2<構成例1>または図3<構成例2>に示すようになる。構成例1および2のいずれも、第1ch入力信号と第2ch入力信号との加算信号であるモノラル信号と、各チャネル信号との間の相関性に基づき、モノラル信号に対する各チャネル信号の遅延差(Dサンプル)および振幅比(g)を予測フィルタ量子化パラメータとして用いて、モノラル信号から各チャネルの予測信号を合成する。
<構成例1>
構成例1では、図2に示すように、第1ch予測信号合成部122および第2ch予測信号合成部126は、遅延器201および乗算器202を備え、式(2)で表される予測により、モノラル復号信号sd_mono(n)から、各チャネルの予測信号sp_ch(n)を合成する。
Figure 0005046652
<構成例2>
構成例2では、図3に示すように、図2に示す構成にさらに、遅延器203−1〜P、乗算器204−1〜Pおよび加算器205を備える。そして、予測フィルタ量子化パラメータとして、モノラル信号に対する各チャネル信号の遅延差(Dサンプル)および振幅比(g)の他に、予測係数列{a(0),a(1), a(2), ..., a(P)}(Pは予測次数、a(0)=1.0)を用い、式(3)で表される予測により、モノラル復号信号sd_mono(n)から、各チャネルの予測信号sp_ch(n)を合成する。
Figure 0005046652
これに対し、第1ch予測フィルタ分析部121および第2ch予測フィルタ分析部125は、式(4)で表される歪み、すなわち、各チャネルの入力音声信号s_ch(n) (n=0〜NF-1)と上式(2)または(3)に従って予測される各チャネルの予測信号sp_ch(n)との歪Distを最小とするような予測フィルタパラメータを求め、そのフィルタパラメータを量子化した予測フィルタ量子化パラメータを、上記構成を採る第1ch予測信号合成部122および第2ch予測信号合成部126に出力する。また、第1ch予測フィルタ分析部121および第2ch予測フィルタ分析部125は、予測フィルタ量子化パラメータを符号化した予測フィルタ量子化符号を出力する。
Figure 0005046652
なお、構成例1に対しては、第1ch予測フィルタ分析部121および第2ch予測フィルタ分析部125は、モノラル復号信号と各チャネルの入力音声信号との間の相互相関を最大にするような遅延差Dおよびフレーム単位の平均振幅の比gを予測フィルタパラメータとして求めてもよい。
次いで、本実施の形態に係る音声復号装置について説明する。本実施の形態に係る音声
復号装置の構成を図4に示す。図4に示す音声復号装置300は、モノラル信号のためのコアレイヤ復号部310と、ステレオ信号のための拡張レイヤ復号部320とを備える。
モノラル信号復号部311は、入力されるモノラル信号の符号化データを復号し、モノラル復号信号を拡張レイヤ復号部320に出力するとともに、最終出力として出力する。
第1ch予測フィルタ復号部321は、入力される第1ch予測フィルタ量子化符号を復号して、第1ch予測フィルタ量子化パラメータを第1ch予測信号合成部322に出力する。
第1ch予測信号合成部322は、音声符号化装置100の第1ch予測信号合成部122と同じ構成を採り、モノラル復号信号と第1ch予測フィルタ量子化パラメータとから第1ch音声信号を予測し、その第1ch予測音声信号を加算器324に出力する。
第1ch予測残差信号復号部323は、入力される第1ch予測残差符号化データを復号し、第1ch予測残差信号を加算器324に出力する。
加算器324は、第1ch予測音声信号と第1ch予測残差信号とを加算して第1chの復号信号を求め、最終出力として出力する。
一方、第2ch予測フィルタ復号部325は、入力される第2ch予測フィルタ量子化符号を復号して、第2ch予測フィルタ量子化パラメータを第2ch予測信号合成部326に出力する。
第2ch予測信号合成部326は、音声符号化装置100の第2ch予測信号合成部126と同じ構成を採り、モノラル復号信号と第2ch予測フィルタ量子化パラメータとから第2ch音声信号を予測し、その第2ch予測音声信号を加算器328に出力する。
第2ch予測残差信号復号部327は、入力される第2ch予測残差符号化データを復号し、第2ch予測残差信号を加算器328に出力する。
加算器328は、第2ch予測音声信号と第2ch予測残差信号とを加算して第2chの復号信号を求め、最終出力として出力する。
このような構成を採る音声復号装置300では、モノラル−ステレオ・スケーラブル構成において、出力音声をモノラルとする場合は、モノラル信号の符号化データのみから得られる復号信号をモノラル復号信号として出力し、出力音声をステレオとする場合は、受信される符号化データおよび量子化符号のすべてを用いて第1ch復号信号および第2ch復号信号を復号して出力する。
ここで、本実施の形態に係るモノラル信号は、図5に示すように、第1ch音声信号s_ch1と第2ch音声信号s_ch2との加算によって得られる信号であるため、双方のチャネルの信号成分を含む中間的な信号である。よって、第1ch音声信号と第2ch音声信号とのチャネル間相関が小さい場合でも、第1ch音声信号とモノラル信号との相関および第2ch音声信号とモノラル信号との相関は、チャネル間相関よりは大きくなるものと予想される。よって、モノラル信号から第1ch音声信号を予測する場合の予測ゲインおよびモノラル信号から第2ch音声信号を予測する場合の予測ゲイン(図5:予測ゲインB)は、第1ch音声信号から第2ch音声信号を予測する場合の予測ゲインおよび第2ch音声信号から第1ch音声信号を予測する場合の予測ゲイン(図5:予測ゲインA)よりも大きくなることが予想される。
そして、この関係をまとめたのが図6である。すなわち、第1ch音声信号と第2ch音声信号とのチャネル間相関が十分大きい場合は、予測ゲインAおよび予測ゲインBはそれほど変わらず双方とも十分大きい値が得られる。しかし、第1ch音声信号と第2ch音声信号とのチャネル間相関が小さい場合は、予測ゲインAはチャネル間相関が十分大きい場合に比べ急激に低下するのに対し、予測ゲインBは、予測ゲインAよりも低下の度合いが小さく、予測ゲインAよりも大きい値になるものと予想される。
このように、本実施の形態では、第1ch音声信号および第2ch音声信号双方の信号成分を含む中間的な信号であるモノラル信号から各チャネルの信号を予測して合成するため、チャネル間相関が小さい複数チャネルの信号に対しても従来より予測ゲインが大きい信号を合成することができる。その結果、同等の音質をより低ビットレートの符号化により得ること、および、同等のビットレートでより高音質な音声を得ることができる。よって、本実施の形態によれば、符号化効率の向上を図ることができる。
(実施の形態2)
図7に本実施の形態に係る音声符号化装置400の構成を示す。図7に示すように、音声符号化装置400は、図1(実施の形態1)に示す構成から第2ch予測フィルタ分析部125、第2ch予測信号合成部126、減算器127および第2ch予測残差信号符号化部128を取り除いた構成を採る。つまり、音声符号化装置400は、第1chと第2chのうち第1chに対してのみ予測信号を合成し、モノラル信号の符号化データ、第1ch予測フィルタ量子化符号および第1ch予測残差符号化データのみを音声復号装置へ伝送する。
一方、本実施の形態に係る音声復号装置500の構成は図8に示すようになる。図8に示すように、音声復号装置500は、図4(実施の形態1)に示す構成から第2ch予測フィルタ復号部325、第2ch予測信号合成部326、第2ch予測残差信号復号部327および加算器328を取り除き、代わりに、第2ch復号信号合成部331を加えた構成を採る。
第2ch復号信号合成部331は、モノラル復号信号sd_mono(n)と第1ch復号信号sd_ch1(n)とを用いて、式(1)に示す関係に基づき、式(5)に従って第2ch復号信号sd_ch2(n)を合成する。
Figure 0005046652
なお、本実施の形態では拡張レイヤ符号化部120が第1chに対してのみ処理する構成としたが、第1chに代えて第2chに対してのみ処理する構成としてもよい。
このように、本実施の形態によれば、実施の形態1に比べ装置構成を簡単にすることができる。また、第1chおよび第2chのうち一方のチャネルの符号化データのみの伝送で済むので、さらに符号化効率が向上する。
(実施の形態3)
図9に本実施の形態に係る音声符号化装置600の構成を示す。コアレイヤ符号化部110は、モノラル信号生成部111およびモノラル信号CELP符号化部114を備え、拡張レイヤ符号化部120は、モノラル駆動音源信号保持部131、第1chCELP符号化部132および第2chCELP符号化部133を備える。
モノラル信号CELP符号化部114は、モノラル信号生成部111で生成されたモノラル信号s_mono(n)に対してCELP符号化を行い、モノラル信号符号化データ、および、CELP符号化によって得られるモノラル駆動音源信号を出力する。このモノラル駆動音源信号は、モノラル駆動音源信号保持部131に保持される。
第1chCELP符号化部132は、第1ch音声信号に対してCELP符号化を行って第1ch符号化データを出力する。また、第2chCELP符号化部133は、第2ch音声信号に対してCELP符号化を行って第2ch符号化データを出力する。第1chCELP符号化部132および第2chCELP符号化部133は、モノラル駆動音源信号保持部131に保持されたモノラル駆動音源信号を用いて、各チャネルの入力音声信号に対応する駆動音源信号の予測、および、その予測残差成分に対するCELP符号化を行う。
次いで、第1chCELP符号化部132および第2chCELP符号化部133の詳細について説明する。第1chCELP符号化部132および第2chCELP符号化部133の構成を図10に示す。
図10において、第Nch(Nは1または2)LPC分析部401は、第Nch音声信号に対するLPC分析を行い、得られたLPCパラメータを量子化して第NchLPC予測残差信号生成部402および合成フィルタ409に出力するとともに、第NchLPC量子化符号を出力する。第NchLPC分析部401では、LPCパラメータの量子化に際し、モノラル信号に対するLPCパラメータと第Nch音声信号から得られるLPCパラメータ(第NchLPCパラメータ)との相関が大きいことを利用して、モノラル信号の符号化データからモノラル信号量子化LPCパラメータを復号し、そのモノラル信号量子化LPCパラメータに対するNchLPCパラメータの差分成分を量子化することにより効率的な量子化を行う。
第NchLPC予測残差信号生成部402は、第Nch量子化LPCパラメータを用いて、第Nch音声信号に対するLPC予測残差信号を算出して第Nch予測フィルタ分析部403に出力する。
第Nch予測フィルタ分析部403は、LPC予測残差信号およびモノラル駆動音源信号から第Nch予測フィルタパラメータを求めて量子化し、第Nch予測フィルタ量子化パラメータを第Nch駆動音源信号合成部404に出力するとともに、第Nch予測フィルタ量子化符号を出力する。
第Nch駆動音源信号合成部404は、モノラル駆動音源信号および第Nch予測フィルタ量子化パラメータを用いて、第Nch音声信号に対応する予測駆動音源信号を合成して乗算器407−1へ出力する。
ここで、第Nch予測フィルタ分析部403は、実施の形態1(図1)における第1ch予測フィルタ分析部121および第2ch予測フィルタ分析部125に対応し、それらの構成および動作は同様になる。また、第Nch駆動音源信号合成部404は、実施の形態1(図1〜3)における第1ch予測信号合成部122および第2ch予測信号合成部126に対応し、それらの構成および動作は同様になる。但し、本実施の形態では、モノラル復号信号に対する予測を行って各チャネルの予測信号を合成するのではなく、モノラル信号に対応するモノラル駆動音源信号に対する予測を行って各チャネルの予測駆動音源信号を合成する点において実施の形態1と異なる。そして、本実施の形態では、その予測駆動音源信号に対する残差成分(予測しきれない誤差成分)の音源信号を、CELP符号化における音源探索により符号化する。
つまり、第1chおよび第2chCELP符号化部132、133は、第Nch適応符号帳405および第Nch固定符号帳406を有し、適応音源、固定音源、およびモノラル駆動音源信号から予測した予測駆動音源の各音源信号にそれら各々のゲインを乗じて加算し、その加算によって得られた駆動音源に対して歪み最小化による閉ループ型音源探索を行う。そして、適応音源インデクス、固定音源インデクス、適応音源、固定音源および予測駆動音源信号に対するゲイン符号を第Nch音源符号化データとして出力する。より具体的には、以下のようになる。
合成フィルタ409は、第NchLPC分析部401から出力される量子化LPCパラメータを用いて、第Nch適応符号帳405および第Nch固定符号帳406で生成された音源ベクトル、および、第Nch駆動音源信号合成部404で合成された予測駆動音源信号を駆動音源としてLPC合成フィルタによる合成を行う。この結果得られる合成信号のうち第Nchの予測駆動音源信号に対応する成分は、実施の形態1(図1〜3)において第1ch予測信号合成部122または第2ch予測信号合成部126から出力される各チャネルの予測信号に相当する。そして、このようにして得られた合成信号は、減算器410へ出力される。
減算器410は、合成フィルタ409から出力された合成信号を第Nch音声信号から減算することにより誤差信号を算出し、この誤差信号を聴覚重み付け部411へ出力する。この誤差信号が符号化歪みに相当する。
聴覚重み付け部411は、減算器410から出力された符号化歪みに対して聴覚的な重み付けを行い、歪最小化部412へ出力する。
歪最小化部412は、第Nch適応符号帳405および第Nch固定符号帳406に対して、聴覚重み付け部411から出力される符号化歪みを最小とするようなインデクスを決定し、第Nch適応符号帳405および第Nch固定符号帳406が使用するインデクスを指示する。また、歪最小化部412は、それらのインデクスに対応するゲイン、具体的には、第Nch適応符号帳405からの適応ベクトルおよび第Nch固定符号帳406からの固定ベクトルに対する各ゲイン(適応符号帳ゲインおよび固定符号帳ゲイン)を生成し、それぞれ乗算器407−2、407−4へ出力する。
また、歪最小化部412は、第Nch駆動音源信号合成部404から出力された予測駆動音源信号、乗算器407−2でのゲイン乗算後の適応ベクトルおよび乗算器407−4でのゲイン乗算後の固定ベクトル、の3種類の信号間のゲインを調整する各ゲインを生成し、それぞれ乗算器407−1、407−3および407−5へ出力する。それら3種類の信号間のゲインを調整する3種類のゲインは、好ましくはそれらのゲイン値間に相互に関係性をもたせて生成することが望ましい。例えば、第1ch音声信号と第2ch音声信号とのチャネル間相関が大きい場合は、予測駆動音源信号の寄与分がゲイン乗算後の適応ベクトルおよびゲイン乗算後の固定ベクトルの寄与分に対して相対的に大きくなるように、逆にチャネル間相関が小さい場合は、予測駆動音源信号の寄与分がゲイン乗算後の適応ベクトルおよびゲイン乗算後の固定ベクトルの寄与分に対して相対的に小さくなるようにする。
また、歪最小化部412は、それらのインデクス、それらのインデクスに対応する各ゲインの符号および信号間調整用ゲインの符号を第Nch音源符号化データとして出力する。
第Nch適応符号帳405は、過去に生成された合成フィルタ409への駆動音源の音
源ベクトルを内部バッファに記憶しており、歪最小化部412から指示されたインデクスに対応する適応符号帳ラグ(ピッチラグ、または、ピッチ周期)に基づいて、この記憶されている音源ベクトルから1サブフレーム分を生成し、適応符号帳ベクトルとして乗算器407−2へ出力する。
第Nch固定符号帳406は、歪最小化部412から指示されたインデクスに対応する音源ベクトルを、固定符号帳ベクトルとして乗算器407−4へ出力する。
乗算器407−2は、第Nch適応符号帳405から出力された適応符号帳ベクトルに適応符号帳ゲインを乗じ、乗算器407−3へ出力する。
乗算器407−4は、第Nch固定符号帳406から出力された固定符号帳ベクトルに固定符号帳ゲインを乗じ、乗算器407−5へ出力する。
乗算器407−1は、第Nch駆動音源信号合成部404から出力された予測駆動音源信号にゲインを乗じ、加算器408へ出力する。乗算器407−3は、乗算器407−2でのゲイン乗算後の適応ベクトルに別のゲインを乗じ、加算器408へ出力する。乗算器407−5は、乗算器407−4でのゲイン乗算後の固定ベクトルに別のゲインを乗じ、加算器408へ出力する。
加算器408は、乗算器407−1から出力された予測駆動音源信号と、乗算器407−3から出力された適応符号帳ベクトルと、乗算器407−5から出力された固定符号帳ベクトルとを加算し、加算後の音源ベクトルを駆動音源として合成フィルタ409に出力する。
合成フィルタ409は、加算器408から出力される音源ベクトルを駆動音源としてLPC合成フィルタによる合成を行う。
このように、第Nch適応符号帳405および第Nch固定符号帳406で生成された音源ベクトルを用いて符号化歪みが求められる一連の処理は閉ループとなっており、歪最小化部412は、この符号化歪みが最小となるような、第Nch適応符号帳405および第Nch固定符号帳406のインデクスを決定し、出力する。
第1chおよび第2chCELP符号化部132、133は、このようにして得られた符号化データ(LPC量子化符号、予測フィルタ量子化符号、音源符号化データ)を第Nch符号化データとして出力する。
次いで、本実施の形態に係る音声復号装置について説明する。本実施の形態に係る音声復号装置700の構成を図11に示す。図11に示す音声復号装置700は、モノラル信号のためのコアレイヤ復号部310と、ステレオ信号のための拡張レイヤ復号部320とを備える。
モノラルCELP復号部312は、入力されるモノラル信号の符号化データをCELP復号し、モノラル復号信号、および、CELP復号によって得られるモノラル駆動音源信号を出力する。このモノラル駆動音源信号は、モノラル駆動音源信号保持部341に保持される。
第1chCELP復号部342は、第1ch符号化データに対してCELP復号を行って第1ch復号信号を出力する。また、第2chCELP復号部343は、第2ch符号化データに対してCELP復号を行って第2ch復号信号を出力する。第1chCELP
復号部342および第2chCELP復号部343は、モノラル駆動音源信号保持部341に保持されたモノラル駆動音源信号を用いて、各チャネルの符号化データに対応する駆動音源信号の予測、および、その予測残差成分に対するCELP復号を行う。
このような構成を採る音声復号装置700では、モノラル−ステレオ・スケーラブル構成において、出力音声をモノラルとする場合は、モノラル信号の符号化データのみから得られる復号信号をモノラル復号信号として出力し、出力音声をステレオとする場合は、受信される符号化データのすべてを用いて第1ch復号信号および第2ch復号信号を復号して出力する。
次いで、第1chCELP復号部342および第2chCELP復号部343の詳細について説明する。第1chCELP復号部342および第2chCELP復号部343の構成を図12に示す。第1chおよび第2chCELP復号部342、343は、音声符号化装置600(図9)から伝送されたモノラル信号符号化データおよび第Nch符号化データ(Nは1または2)から、第NchLPC量子化パラメータの復号、第Nch駆動音源信号の予測信号を含むCELP音源信号の復号を行い、第Nch復号信号を出力する。より具体的には、以下のようになる。
第NchLPCパラメータ復号部501は、モノラル信号符号化データを用いて復号されたモノラル信号量子化LPCパラメータと第NchLPC量子化符号とを用いて第NchLPC量子化パラメータの復号を行い、得られた量子化LPCパラメータを合成フィルタ508へ出力する。
第Nch予測フィルタ復号部502は、第Nch予測フィルタ量子化符号を復号し、得られた第Nch予測フィルタ量子化パラメータを第Nch駆動音源信号合成部503へ出力する。
第Nch駆動音源信号合成部503は、モノラル駆動音源信号および第Nch予測フィルタ量子化パラメータを用いて、第Nch音声信号に対応する予測駆動音源信号を合成して乗算器506−1へ出力する。
合成フィルタ508は、第NchLPCパラメータ復号部501から出力される量子化LPCパラメータを用いて、第Nch適応符号帳504および第Nch固定符号帳505で生成された音源ベクトル、および、第Nch駆動音源信号合成部503で合成された予測駆動音源信号を駆動音源としてLPC合成フィルタによる合成を行う。得られた合成信号は、第Nch復号信号として出力される。
第Nch適応符号帳504は、過去に生成された合成フィルタ508への駆動音源の音源ベクトルを内部バッファに記憶しており、第Nch音源符号化データに含まれるインデクスに対応する適応符号帳ラグ(ピッチラグ、または、ピッチ周期)に基づいて、この記憶されている音源ベクトルから1サブフレーム分を生成し、適応符号帳ベクトルとして乗算器506−2へ出力する。
第Nch固定符号帳505は、第Nch音源符号化データに含まれるインデクスに対応する音源ベクトルを、固定符号帳ベクトルとして乗算器506−4へ出力する。
乗算器506−2は、第Nch適応符号帳504から出力された適応符号帳ベクトルに第Nch音源符号化データに含まれる適応符号帳ゲインを乗じ、乗算器506−3へ出力する。
乗算器506−4は、第Nch固定符号帳505から出力された固定符号帳ベクトルに第Nch音源符号化データに含まれる固定符号帳ゲインを乗じ、乗算器506−5へ出力する。
乗算器506−1は、第Nch駆動音源信号合成部503から出力された予測駆動音源信号に、第Nch音源符号化データに含まれる、予測駆動音源信号に対する調整用ゲインを乗じ、加算器507へ出力する。
乗算器506−3は、乗算器506−2でのゲイン乗算後の適応ベクトルに、第Nch音源符号化データに含まれる、適応ベクトルに対する調整用ゲインを乗じ、加算器507へ出力する。
乗算器506−5は、乗算器506−4でのゲイン乗算後の固定ベクトルに、第Nch音源符号化データに含まれる、固定ベクトルに対する調整用ゲインを乗じ、加算器507へ出力する。
加算器507は、乗算器506−1から出力された予測駆動音源信号と、乗算器506−3から出力された適応符号帳ベクトルと、乗算器506−5から出力された固定符号帳ベクトルとを加算し、加算後の音源ベクトルを駆動音源として合成フィルタ508に出力する。
合成フィルタ508は、加算器507から出力される音源ベクトルを駆動音源としてLPC合成フィルタによる合成を行う。
以上の音声符号化装置600の動作フローをまとめると図13に示すようになる。すなわち、第1ch音声信号と第2ch音声信号とからモノラル信号を生成し(ST1301)、モノラル信号に対しコアレイヤのCELP符号化を行い(ST1302)、次いで、第1chのCELP符号化および第2chのCELP符号化を行う(ST1303、1304)。
また、第1ch、第2chCELP符号化部132、133の動作フローをまとめると図14に示すようになる。すなわち、まず、第NchのLPC分析とLPCパラメータの量子化を行い(ST1401)、次いで、第NchのLPC予測残差信号を生成する(ST1402)。次いで、第Nchの予測フィルタの分析を行い(ST1403)、第Nchの駆動音源信号を予測する(ST1404)。そして、最後に、第Nchの駆動音源の探索とゲインの探索を行う(ST1405)。
なお、第1ch、第2chCELP符号化部132、133においては、CELP符号化における音源探索による音源符号化に先立ち、第Nch予測フィルタ分析部403によって予測フィルタパラメータを求めていたが、予測フィルタパラメータに対する符号帳を別途設け、CELP音源探索において、適応音源探索等の探索と共に、歪み最小化による閉ループ型の探索によって最適な予測フィルタパラメータをその符号帳に基づいて求めるような構成としてもよい。または、第Nch予測フィルタ分析部403において予測フィルタパラメータの候補を複数求めておき、CELP音源探索における歪み最小化による閉ループ型の探索によって、それら複数の候補の中から最適な予測フィルタパラメータを選択するような構成としてもよい。このような構成を採ることにより、より最適なフィルタパラメータを算出することができ、予測性能の向上(すなわち、復号音声品質の向上)を図ることができる。
また、第1ch、第2chCELP符号化部132、133でのCELP符号化におけ
る音源探索による音源符号化において、第Nch音声信号に対応する予測駆動音源信号、ゲイン乗算後の適応ベクトルおよびゲイン乗算後の固定ベクトル、の3種類の信号間のゲインを調整するための各ゲインをそれぞれの信号に乗ずる構成としたが、そのような調整用のゲインを用いない構成、または、調整用のゲインとして第Nch音声信号に対応する予測駆動音源信号に対してのみゲインを乗ずる構成としてもよい。
また、CELP音源探索時に、モノラル信号のCELP符号化で得られたモノラル信号符号化データを利用し、そのモノラル信号符号化データに対する差分成分(補正成分)を符号化する構成としてもよい。例えば、適応音源ラグや各音源のゲインの符号化時に、モノラル信号のCELP符号化で得られる適応音源ラグからの差分値、適応音源ゲイン・固定音源ゲインに対する相対比などを符号化対象として符号化する。これにより、各チャネルのCELP音源に対する符号化の効率を向上させることができる。
また、音声符号化装置600(図9)の拡張レイヤ符号化部120の構成を、実施の形態2(図7)と同様に、第1chに関する構成だけとしてもよい。すなわち、拡張レイヤ符号化部120では、第1ch音声信号に対してのみモノラル駆動音源信号を用いた駆動音源信号の予測および予測残差成分に対するCELP符号化を行う。この場合、音声復号装置700(図11)の拡張レイヤ復号部320では、実施の形態2(図8)と同様に、第2ch信号の復号を行うために、モノラル復号信号sd_mono(n)および第1ch復号信号sd_ch1(n)を用いて、式(1)に示す関係に基づき、式(5)に従って第2ch復号信号sd_ch2(n)を合成する。
また、第1ch、第2chCELP符号化部132、133および第1ch、第2chCELP復号部342、343においては、音源探索における音源構成として、適応音源および固定音源のうち、いずれか一方だけを用いる構成としてもよい。
また、第Nch予測フィルタ分析部403において、第Nch音声信号をLPC予測残差信号の代わりに、モノラル信号生成部111で生成されたモノラル信号s_mono(n)をモノラル駆動音源信号の代わりに用いて、第Nch予測フィルタパラメータを求めるようにしてもよい。この場合の音声符号化装置750の構成を図15に、第1chCELP符号化部141および第2chCELP符号化部142の構成を図16に示す。図15に示すように、モノラル信号生成部111で生成されたモノラル信号s_mono(n)が、第1chCELP符号化部141および第2chCELP符号化部142に入力される。そして、図16に示す第1chCELP符号化部141および第2chCELP符号化部142の第Nch予測フィルタ分析部403において、第Nch音声信号およびモノラル信号s_mono(n)を用いて、第Nch予測フィルタパラメータを求める。このような構成にすることによって、第Nch量子化LPCパラメータを用いて第Nch音声信号からLPC予測残差信号を算出する処理が不要となる。また、モノラル駆動音源信号の代わりにモノラル信号s_mono(n)を用いることで、モノラル駆動音源信号を用いる場合よりも時間的に後(未来)の信号を用いて第Nch予測フィルタパラメータを求めることができる。なお、第Nch予測フィルタ分析部403では、モノラル信号生成部111で生成されたモノラル信号s_mono(n)を用いる代わりに、モノラル信号CELP符号化部114での符号化で得られるモノラル復号信号を用いるようにしてもよい。
また、第Nch適応符号帳405の内部バッファに、合成フィルタ409への駆動音源の音源ベクトルの代わりに、乗算器407−3でのゲイン乗算後の適応ベクトルと乗算器407−5でのゲイン乗算後の固定ベクトルのみを加算した信号ベクトルとを記憶するようにしてもよい。この場合は、復号側の第Nch適応符号帳でも同様な構成とする必要がある。
また、第1ch、第2chCELP符号化部132、133で行われる各チャネルの予測駆動音源信号に対する残差成分の音源信号の符号化では、CELP符号化による時間領域での音源探索を行う代わりに、残差成分の音源信号を周波数領域へ変換し、周波数領域での残差成分の音源信号の符号化を行うようにしてもよい。
このように、本実施の形態によれば、音声符号化に適したCELP符号化を用いるため、さらに効率的な符号化を行うことができる。
(実施の形態4)
図17に本実施の形態に係る音声符号化装置800の構成を示す。音声符号化装置800は、コアレイヤ符号化部110および拡張レイヤ符号化部120を備える。なお、コアレイヤ符号化部110の構成は実施の形態1(図1)と同一であるため説明を省略する。
拡張レイヤ符号化部120は、モノラル信号LPC分析部134、モノラルLPC残差信号生成部135、第1chCELP符号化部136および第2chCELP符号化部137を備える。
モノラル信号LPC分析部134は、モノラル復号信号に対するLPCパラメータを算出して、このモノラル信号LPCパラメータをモノラルLPC残差信号生成部135、第1chCELP符号化部136および第2chCELP符号化部137へ出力する。
モノラルLPC残差信号生成部135は、LPCパラメータを用いて、モノラル復号信号に対するLPC残差信号(モノラルLPC残差信号)を生成して、第1chCELP符号化部136および第2chCELP符号化部137へ出力する。
第1chCELP符号化部136および第2chCELP符号化部137は、モノラル復号信号に対するLPCパラメータおよびLPC残差信号を用いて、各チャネルの音声信号に対するCELP符号化を行い、各チャネルの符号化データを出力する。
次いで、第1chCELP符号化部136および第2chCELP符号化部137の詳細について説明する。第1chCELP符号化部136および第2chCELP符号化部137の構成を図18に示す。なお、図18において実施の形態3(図10)と同一の構成には同一符号を付し、説明を省略する。
第NchLPC分析部413は、第Nch音声信号に対するLPC分析を行い、得られたLPCパラメータを量子化して第NchLPC予測残差信号生成部402および合成フィルタ409に出力するとともに、第NchLPC量子化符号を出力する。第NchLPC分析部413では、LPCパラメータの量子化に際し、モノラル信号に対するLPCパラメータと第Nch音声信号から得られるLPCパラメータ(第NchLPCパラメータ)との相関が大きいことを利用して、モノラル信号LPCパラメータに対するNchLPCパラメータの差分成分を量子化することにより効率的な量子化を行う。
第Nch予測フィルタ分析部414は、第NchLPC予測残差信号生成部402から出力されるLPC予測残差信号およびモノラルLPC残差信号生成部135から出力されるモノラルLPC残差信号から第Nch予測フィルタパラメータを求めて量子化し、第Nch予測フィルタ量子化パラメータを第Nch駆動音源信号合成部415に出力するとともに、第Nch予測フィルタ量子化符号を出力する。
第Nch駆動音源信号合成部415は、モノラルLPC残差信号および第Nch予測フィルタ量子化パラメータを用いて、第Nch音声信号に対応する予測駆動音源信号を合成
して乗算器407−1へ出力する。
なお、音声符号化装置800に対する音声復号装置では、音声符号化装置800と同様にして、モノラル復号信号に対するLPCパラメータおよびLPC残差信号を算出して、各チャネルのCELP復号部での各チャネルの駆動音源信号の合成に用いる。
また、第Nch予測フィルタ分析部414において、第NchLPC予測残差信号生成部402から出力されるLPC予測残差信号およびモノラルLPC残差信号生成部135から出力されるモノラルLPC残差信号の代わりに、第Nch音声信号およびモノラル信号生成部111で生成されたモノラル信号s_mono(n)を用いて、第Nch予測フィルタパラメータを求めるようにしてもよい。さらに、モノラル信号生成部111で生成されたモノラル信号s_mono(n)を用いる代わりに、モノラル復号信号を用いるようにしてもよい。
このように、本実施の形態によれば、モノラル信号LPC分析部134およびモノラルLPC残差信号生成部135を備えるため、コアレイヤにおいて任意の符号化方式でモノラル信号が符号化される場合でも、拡張レイヤにおいてCELP符号化を用いることができる。
なお、上記各実施の形態に係る音声符号化装置、音声復号装置を、移動体通信システムにおいて使用される無線通信移動局装置や無線通信基地局装置等の無線通信装置に搭載することも可能である。
また、上記各実施の形態では、本発明をハードウェアで構成する場合を例にとって説明したが、本発明はソフトウェアで実現することも可能である。
また、上記各実施の形態の説明に用いた各機能ブロックは、典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。
ここでは、LSIとしたが、集積度の違いにより、IC、システムLSI、スーパーLSI、ウルトラLSIと呼称されることもある。
また、集積回路化の手法はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後に、プログラムすることが可能なFPGA(Field Programmable Gate Array)や、LSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサーを利用してもよい。
さらには、半導体技術の進歩又は派生する別技術によりLSIに置き換わる集積回路化の技術が登場すれば、当然、その技術を用いて機能ブロックの集積化を行ってもよい。バイオ技術の適応等が可能性としてありえる。
本明細書は、2004年12月27日出願の特願2004−377965および2005年8月18日出願の特願2005−237716に基づくものである。これらの内容はすべてここに含めておく。
本発明は、移動体通信システムやインターネットプロトコルを用いたパケット通信システム等における通信装置の用途に適用できる。
本発明の実施の形態1に係る音声符号化装置の構成を示すブロック図 本発明の実施の形態1に係る第1ch、第2ch予測信号合成部の構成を示すブロック図 本発明の実施の形態1に係る第1ch、第2ch予測信号合成部の構成を示すブロック図 本発明の実施の形態1に係る音声復号装置の構成を示すブロック図 本発明の実施の形態1に係る音声符号化装置の動作説明図 本発明の実施の形態1に係る音声符号化装置の動作説明図 本発明の実施の形態2に係る音声符号化装置の構成を示すブロック図 本発明の実施の形態2に係る音声復号装置の構成を示すブロック図 本発明の実施の形態3に係る音声符号化装置の構成を示すブロック図 本発明の実施の形態3に係る第1ch、第2chCELP符号化部の構成を示すブロック図 本発明の実施の形態3に係る音声復号装置の構成を示すブロック図 本発明の実施の形態3に係る第1ch、第2chCELP復号部の構成を示すブロック図 本発明の実施の形態3に係る音声符号化装置の動作フロー図 本発明の実施の形態3に係る第1ch、第2chCELP符号化部の動作フロー図 本発明の実施の形態3に係る音声符号化装置の別の構成を示すブロック図 本発明の実施の形態3に係る第1ch、第2chCELP符号化部の別の構成を示すブロック図 本発明の実施の形態4に係る音声符号化装置の構成を示すブロック図 本発明の実施の形態4に係る第1ch、第2chCELP符号化部の構成を示すブロック図

Claims (7)

  1. コアレイヤのモノラル信号を用いた符号化を行う第1符号化手段と、
    拡張レイヤのステレオ信号を用いた符号化を行う第2符号化手段と、を具備し、
    前記第1符号化手段は、第1チャネル信号および第2チャネル信号を含むステレオ信号を入力信号として、前記第1チャネル信号および前記第2チャネル信号からモノラル信号を生成する生成手段を具備し、
    前記第2符号化手段は、前記モノラル信号を符号化して得られるモノラル駆動音源信号に基づいて、前記第1チャネル信号または前記第2チャネル信号の予測信号を合成する合成手段を具備する、
    音声符号化装置。
  2. 前記第2符号化手段は、前記予測信号と前記第1チャネル信号または前記第2チャネル信号との残差信号を符号化する、
    請求項1記載の音声符号化装置。
  3. 前記第2符号化手段は、前記第1チャネル信号または前記第2チャネル信号から第1チャネルLPC残差信号または第2チャネルLPC残差信号を算出する算出手段、をさらに具備し、
    前記合成手段は、前記モノラル駆動音源信号に対する前記第1チャネルLPC残差信号または前記第2チャネルLPC残差信号の遅延差および振幅比を用いて、前記予測信号を合成する、
    請求項1又は2に記載の音声符号化装置。
  4. 前記合成手段は、前記モノラル駆動音源信号と、前記第1チャネルLPC残差信号または前記第2チャネルLPC残差信号とから算出される前記遅延差および前記振幅比を用いて、前記予測信号を合成する、
    請求項記載の音声符号化装置。
  5. 請求項1記載の音声符号化装置を具備する無線通信移動局装置。
  6. 請求項1記載の音声符号化装置を具備する無線通信基地局装置。
  7. コアレイヤにおいてモノラル信号を用いた符号化を行い、拡張レイヤにおいてステレオ信号を用いた符号化を行う音声符号化方法であって、
    前記コアレイヤにおいて、第1チャネル信号および第2チャネル信号を含むステレオ信号を入力信号として、前記第1チャネル信号および前記第2チャネル信号からモノラル信号を生成する生成工程を具備し、
    前記拡張レイヤにおいて、前記モノラル信号を符号化して得られるモノラル駆動音源信号に基づいて、前記第1チャネル信号または前記第2チャネル信号の予測信号を合成する合成工程を具備する、
    音声符号化方法。
JP2006550764A 2004-12-27 2005-12-26 音声符号化装置および音声符号化方法 Expired - Fee Related JP5046652B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006550764A JP5046652B2 (ja) 2004-12-27 2005-12-26 音声符号化装置および音声符号化方法

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2004377965 2004-12-27
JP2004377965 2004-12-27
JP2005237716 2005-08-18
JP2005237716 2005-08-18
JP2006550764A JP5046652B2 (ja) 2004-12-27 2005-12-26 音声符号化装置および音声符号化方法
PCT/JP2005/023802 WO2006070751A1 (ja) 2004-12-27 2005-12-26 音声符号化装置および音声符号化方法

Publications (2)

Publication Number Publication Date
JPWO2006070751A1 JPWO2006070751A1 (ja) 2008-06-12
JP5046652B2 true JP5046652B2 (ja) 2012-10-10

Family

ID=36614868

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006550764A Expired - Fee Related JP5046652B2 (ja) 2004-12-27 2005-12-26 音声符号化装置および音声符号化方法

Country Status (8)

Country Link
US (1) US7945447B2 (ja)
EP (1) EP1818911B1 (ja)
JP (1) JP5046652B2 (ja)
KR (1) KR20070092240A (ja)
CN (1) CN101091208B (ja)
AT (1) ATE545131T1 (ja)
BR (1) BRPI0516376A (ja)
WO (1) WO2006070751A1 (ja)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2566366C (en) * 2004-05-19 2013-08-06 Matsushita Electric Industrial Co. Ltd. Audio signal encoder and audio signal decoder
US8036390B2 (en) 2005-02-01 2011-10-11 Panasonic Corporation Scalable encoding device and scalable encoding method
CN1889172A (zh) * 2005-06-28 2007-01-03 松下电器产业株式会社 可增加和修正声音类别的声音分类***及方法
JPWO2007037359A1 (ja) * 2005-09-30 2009-04-16 パナソニック株式会社 音声符号化装置および音声符号化方法
US8112286B2 (en) * 2005-10-31 2012-02-07 Panasonic Corporation Stereo encoding device, and stereo signal predicting method
JP5058152B2 (ja) 2006-03-10 2012-10-24 パナソニック株式会社 符号化装置および符号化方法
WO2008007700A1 (fr) 2006-07-12 2008-01-17 Panasonic Corporation Dispositif de décodage de son, dispositif de codage de son, et procédé de compensation de trame perdue
JPWO2008016098A1 (ja) * 2006-08-04 2009-12-24 パナソニック株式会社 ステレオ音声符号化装置、ステレオ音声復号装置およびこれらの方法
US8150702B2 (en) 2006-08-04 2012-04-03 Panasonic Corporation Stereo audio encoding device, stereo audio decoding device, and method thereof
US7461106B2 (en) 2006-09-12 2008-12-02 Motorola, Inc. Apparatus and method for low complexity combinatorial coding of signals
FR2911031B1 (fr) * 2006-12-28 2009-04-10 Actimagine Soc Par Actions Sim Procede et dispositif de codage audio
FR2911020B1 (fr) * 2006-12-28 2009-05-01 Actimagine Soc Par Actions Sim Procede et dispositif de codage audio
EP2093757A4 (en) * 2007-02-20 2012-02-22 Panasonic Corp MULTIPLEX DECODING DEVICE, MULTIPLEX DECODING METHOD, PROGRAM, AND SEMICONDUCTOR INTEGRATED CIRCUIT
CN101802907B (zh) * 2007-09-19 2013-11-13 爱立信电话股份有限公司 多信道音频的联合增强
US8576096B2 (en) 2007-10-11 2013-11-05 Motorola Mobility Llc Apparatus and method for low complexity combinatorial coding of signals
US8209190B2 (en) * 2007-10-25 2012-06-26 Motorola Mobility, Inc. Method and apparatus for generating an enhancement layer within an audio coding system
US7889103B2 (en) 2008-03-13 2011-02-15 Motorola Mobility, Inc. Method and apparatus for low complexity combinatorial coding of signals
US8639519B2 (en) 2008-04-09 2014-01-28 Motorola Mobility Llc Method and apparatus for selective signal coding based on core encoder performance
KR101428487B1 (ko) * 2008-07-11 2014-08-08 삼성전자주식회사 멀티 채널 부호화 및 복호화 방법 및 장치
CN101635145B (zh) * 2008-07-24 2012-06-06 华为技术有限公司 编解码方法、装置和***
US9330671B2 (en) * 2008-10-10 2016-05-03 Telefonaktiebolaget L M Ericsson (Publ) Energy conservative multi-channel audio coding
US8175888B2 (en) 2008-12-29 2012-05-08 Motorola Mobility, Inc. Enhanced layered gain factor balancing within a multiple-channel audio coding system
US8140342B2 (en) 2008-12-29 2012-03-20 Motorola Mobility, Inc. Selective scaling mask computation based on peak detection
US8200496B2 (en) 2008-12-29 2012-06-12 Motorola Mobility, Inc. Audio signal decoder and method for producing a scaled reconstructed audio signal
US8219408B2 (en) 2008-12-29 2012-07-10 Motorola Mobility, Inc. Audio signal decoder and method for producing a scaled reconstructed audio signal
KR20120032000A (ko) * 2009-06-05 2012-04-04 코닌클리케 필립스 일렉트로닉스 엔.브이. 오디오 신호들의 업믹싱
US8423355B2 (en) 2010-03-05 2013-04-16 Motorola Mobility Llc Encoder for audio signal including generic audio and speech frames
WO2012066727A1 (ja) * 2010-11-17 2012-05-24 パナソニック株式会社 ステレオ信号符号化装置、ステレオ信号復号装置、ステレオ信号符号化方法及びステレオ信号復号方法
US9129600B2 (en) 2012-09-26 2015-09-08 Google Technology Holdings LLC Method and apparatus for encoding an audio signal
EP2919232A1 (en) * 2014-03-14 2015-09-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Encoder, decoder and method for encoding and decoding
EP3067886A1 (en) 2015-03-09 2016-09-14 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoder for encoding a multichannel signal and audio decoder for decoding an encoded audio signal
ES2911515T3 (es) * 2017-04-10 2022-05-19 Nokia Technologies Oy Codificación de audio
WO2020250370A1 (ja) * 2019-06-13 2020-12-17 日本電信電話株式会社 音信号受信復号方法、音信号復号方法、音信号受信側装置、復号装置、プログラム及び記録媒体
WO2020250369A1 (ja) * 2019-06-13 2020-12-17 日本電信電話株式会社 音信号受信復号方法、音信号復号方法、音信号受信側装置、復号装置、プログラム及び記録媒体
WO2020250371A1 (ja) * 2019-06-13 2020-12-17 日本電信電話株式会社 音信号符号化送信方法、音信号符号化方法、音信号送信側装置、符号化装置、プログラム及び記録媒体
US20230386497A1 (en) * 2020-11-05 2023-11-30 Nippon Telegraph And Telephone Corporation Sound signal high frequency compensation method, sound signal post processing method, sound signal decode method, apparatus thereof, program, and storage medium
US20230402051A1 (en) * 2020-11-05 2023-12-14 Nippon Telegraph And Telephone Corporation Sound signal high frequency compensation method, sound signal post processing method, sound signal decode method, apparatus thereof, program, and storage medium
WO2022097242A1 (ja) * 2020-11-05 2022-05-12 日本電信電話株式会社 音信号高域補償方法、音信号後処理方法、音信号復号方法、これらの装置、プログラム、および記録媒体
US20230395092A1 (en) * 2020-11-05 2023-12-07 Nippon Telegraph And Telephone Corporation Sound signal high frequency compensation method, sound signal post processing method, sound signal decode method, apparatus thereof, program, and storage medium
US20230410832A1 (en) * 2020-11-05 2023-12-21 Nippon Telegraph And Telephone Corporation Sound signal high frequency compensation method, sound signal post processing method, sound signal decode method, apparatus thereof, program, and storage medium
JP7491394B2 (ja) 2020-11-05 2024-05-28 日本電信電話株式会社 音信号精製方法、音信号復号方法、これらの装置、プログラム及び記録媒体
US20230386481A1 (en) 2020-11-05 2023-11-30 Nippon Telegraph And Telephone Corporation Sound signal refinement method, sound signal decode method, apparatus thereof, program, and storage medium
JP7491393B2 (ja) 2020-11-05 2024-05-28 日本電信電話株式会社 音信号精製方法、音信号復号方法、これらの装置、プログラム及び記録媒体
JPWO2023032065A1 (ja) 2021-09-01 2023-03-09

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003090207A1 (en) * 2002-04-22 2003-10-30 Koninklijke Philips Electronics N.V. Parametric multi-channel audio representation

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US543948A (en) * 1895-08-06 Registering mechanism for cyclometers
US5434948A (en) * 1989-06-15 1995-07-18 British Telecommunications Public Limited Company Polyphonic coding
DE4320990B4 (de) * 1993-06-05 2004-04-29 Robert Bosch Gmbh Verfahren zur Redundanzreduktion
DE19742655C2 (de) * 1997-09-26 1999-08-05 Fraunhofer Ges Forschung Verfahren und Vorrichtung zum Codieren eines zeitdiskreten Stereosignals
KR100335609B1 (ko) * 1997-11-20 2002-10-04 삼성전자 주식회사 비트율조절이가능한오디오부호화/복호화방법및장치
US6446037B1 (en) * 1999-08-09 2002-09-03 Dolby Laboratories Licensing Corporation Scalable coding method for high quality audio
SE519985C2 (sv) * 2000-09-15 2003-05-06 Ericsson Telefon Ab L M Kodning och avkodning av signaler från flera kanaler
DE10102159C2 (de) * 2001-01-18 2002-12-12 Fraunhofer Ges Forschung Verfahren und Vorrichtung zum Erzeugen bzw. Decodieren eines skalierbaren Datenstroms unter Berücksichtigung einer Bitsparkasse, Codierer und skalierbarer Codierer
SE0202159D0 (sv) * 2001-07-10 2002-07-09 Coding Technologies Sweden Ab Efficientand scalable parametric stereo coding for low bitrate applications
KR101049751B1 (ko) * 2003-02-11 2011-07-19 코닌클리케 필립스 일렉트로닉스 엔.브이. 오디오 코딩
US7725324B2 (en) * 2003-12-19 2010-05-25 Telefonaktiebolaget Lm Ericsson (Publ) Constrained filter encoding of polyphonic signals
CN101031960A (zh) * 2004-09-30 2007-09-05 松下电器产业株式会社 可扩展性编码装置和可扩展性解码装置及其方法
SE0402650D0 (sv) * 2004-11-02 2004-11-02 Coding Tech Ab Improved parametric stereo compatible coding of spatial audio

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003090207A1 (en) * 2002-04-22 2003-10-30 Koninklijke Philips Electronics N.V. Parametric multi-channel audio representation
JP2005523479A (ja) * 2002-04-22 2005-08-04 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ パラメータによるマルチチャンネルオーディオ表示

Also Published As

Publication number Publication date
EP1818911B1 (en) 2012-02-08
US20080010072A1 (en) 2008-01-10
KR20070092240A (ko) 2007-09-12
BRPI0516376A (pt) 2008-09-02
ATE545131T1 (de) 2012-02-15
WO2006070751A1 (ja) 2006-07-06
JPWO2006070751A1 (ja) 2008-06-12
EP1818911A4 (en) 2008-03-19
US7945447B2 (en) 2011-05-17
EP1818911A1 (en) 2007-08-15
CN101091208A (zh) 2007-12-19
CN101091208B (zh) 2011-07-13

Similar Documents

Publication Publication Date Title
JP5046652B2 (ja) 音声符号化装置および音声符号化方法
JP4850827B2 (ja) 音声符号化装置および音声符号化方法
JP4907522B2 (ja) 音声符号化装置および音声符号化方法
JP5046653B2 (ja) 音声符号化装置および音声符号化方法
JP5413839B2 (ja) 符号化装置および復号装置
EP1801783B1 (en) Scalable encoding device, scalable decoding device, and method thereof
JP4555299B2 (ja) スケーラブル符号化装置およびスケーラブル符号化方法
JP4887279B2 (ja) スケーラブル符号化装置およびスケーラブル符号化方法
JP4948401B2 (ja) スケーラブル符号化装置およびスケーラブル符号化方法
JP4937746B2 (ja) 音声符号化装置および音声符号化方法
JP2006072269A (ja) 音声符号化装置、通信端末装置、基地局装置および音声符号化方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120626

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120717

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150727

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees