JP3878254B2 - 音声圧縮符号化方法および音声圧縮符号化装置 - Google Patents

音声圧縮符号化方法および音声圧縮符号化装置 Download PDF

Info

Publication number
JP3878254B2
JP3878254B2 JP25883396A JP25883396A JP3878254B2 JP 3878254 B2 JP3878254 B2 JP 3878254B2 JP 25883396 A JP25883396 A JP 25883396A JP 25883396 A JP25883396 A JP 25883396A JP 3878254 B2 JP3878254 B2 JP 3878254B2
Authority
JP
Japan
Prior art keywords
speech
encoding
information
error signal
speech waveform
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP25883396A
Other languages
English (en)
Other versions
JPH10111700A (ja
Inventor
淳 山根
博喜 内山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP25883396A priority Critical patent/JP3878254B2/ja
Priority to US08/877,710 priority patent/US5943644A/en
Publication of JPH10111700A publication Critical patent/JPH10111700A/ja
Application granted granted Critical
Publication of JP3878254B2 publication Critical patent/JP3878254B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は,留守番電話,音声応答システム,ボイスメール等に適用される音声圧縮符号化装置に関し,より詳細には,アナログ音声波形を入力してディジタル音声波形に変換した後,該ディジタル音声波形を所定の符号化方式で符号化することにより,データ量を圧縮する音声圧縮符号化装置に関する。
【0002】
【従来の技術】
近年,自動車電話等の移動体通信におけるチャンネル容量の拡大や,マルチメディア通信における膨大な情報の蓄積・伝送の必要性から,実用的な低ビットレート音声符号化に対する要求が高まっている。
【0003】
また,ファクシミリ・モデムの付加機能として,留守番電話のための音声符号化手法の開発も望まれている。
【0004】
現在,10kbps以下の低ビットレート音声符号化方式では,CELP(Code Excited Linear Prediction coding system)方式が主流になっている。このCELP方式は,線形予測に基づく音声のAR(Auto−Regressive:自己回帰)モデルに基づいた符号化方式である。
【0005】
具体的には,符号化側において,音声をフレームまたはサブフレームと呼ばれる単位に分割し,それぞれの単位についてスペクトル包絡を表すLPC(Linear Prediction Coding:線形予測)係数と,そのピッチ情報を表すピッチラグと,音源情報である雑音源情報と,利得とを抽出し,それぞれ符号化を行い,格納または伝送するものである。
【0006】
また,復号側では,符号化された各情報を復元し,雑音源情報にピッチ情報を加えることによって励振源信号を生成し,この励振源信号をLPC係数で構成される線形予測合成フィルタに通し,合成音声を得るものである。
【0007】
【発明が解決しようとする課題】
しかしながら,上記従来のCELP方式では,10kbpsの低ビットレートにおいて,良好な音声を得ることができるという利点を有する反面,それぞれのパラメータの符号化過程における演算量が多いという問題点があった。
【0008】
特に,ピッチラグの符号化や雑音源情報の符号化については,符号化された励振源信号を線形予測合成フィルタに通した合成音声を生成し,原音声と比較する必要があるが,フィルタ演算には多くの演算を必要とするため,全ての励振源信号をフィルタに通すのは非現実的であるという問題点があった。
【0009】
また,従来のCELP方式では,二次誤差信号の符号帳を持ち,符号帳に属する各符号ベクトルとスペクトル包絡とから二次誤差信号を合成し,入力信号から得られた二次誤差信号と比較し,そのひずみが最小となる符号を選択することによって符号化を行っているため,符号帳探索のための演算量および符号帳を蓄えるためのメモリ量が多くなるという問題点もあった。
【0010】
なお,CELP方式における演算量を削減する従来技術として,例えば,フィルタ演算を行って比較するのではなく,近似的に原音声との比較を行うことのできるパラメータによって絞り込むという予備選択手法が提案されている。
【0011】
また,雑音源は,与えられたビット数に相当する雑音ベクトルを蓄えているのが一般的であり,その構成を工夫することにより,演算量を削減する方法も提案されている。具体的には,雑音ベクトルをビット数だけ持ち,それらの和や差で雑音源を表すVSELP(Vector Sum Excited Linear Prediction coding)方式がその一例である。
【0012】
ところが,実用的な低ビットレート音声符号化に対する要求から,上記従来のCELP方式における演算量を削減する方法(予備選択手法,VSELP方式等)の他にも,それらとは異なる方法で演算量を削減可能なものが要望されている。
【0013】
本発明は上記に鑑みてなされたものであって,CELP方式の符号化の過程において,演算量を削減すると共に,メモリ量の低減を図れる音声圧縮符号化方法および音声圧縮符号化装置を提供することを目的とする。
【0014】
【課題を解決するための手段】
上記の目的を達成するために,請求項1に係る音声圧縮符号化方法は,アナログ音声波形を入力してディジタル音声波形に変換する第1の工程と,前記ディジタル音声波形を所定の符号化方式で符号化する第2の工程と,前記符号化された音声波形を蓄積する第3の工程と,前記蓄積されたディジタル音声波形を取り出して復号化する第4の工程と,前記復号化されたディジタル音声波形をアナログ音声波形に変換する第5の工程と,を有する音声圧縮符号化方法において,前記第2の工程が,前記ディジタル音声波形をフレームまたはサブフレームと呼ばれる単位に分割するフレーム分割工程と,前記分割したフレームまたはサブフレームの単位のそれぞれについて,スペクトル包絡を表すスペクトル包絡情報,ピッチ情報および音源情報である雑音源情報を抽出し,符号化する抽出・符号化工程と,を含み,前記第4の工程が,符号化された前記スペクトル包絡情報,ピッチ情報および雑音源情報を復元する復元工程と,前記復元した雑音源情報およびピッチ情報から励振源信号を生成する励振源信号生成工程と,前記励振源信号と前記復元したスペクトル包絡情報から合成音声を生成する合成音声生成工程と,を含み,さらに,前記抽出・符号化工程が,前記雑音源情報を抽出・符号化する際に,前記フレームまたはサブフレームから前記ピッチ情報および前記スペクトル包絡情報から生成されるピッチ成分音声を除いた成分である二次誤差信号を抽出し,前記二次誤差信号の強度最大のものからあらかじめ定められた数のサンプル位置を選定し,前記選定されたサンプル位置および前記選定されたサンプル位置の強度を符号化することによって前記雑音源情報の抽出・符号化を行うものである。
【0015】
また,請求項2に係る音声圧縮符号化方法は,アナログ音声波形を入力してディジタル音声波形に変換する第1の工程と,前記ディジタル音声波形を所定の符号化方式で符号化する第2の工程と,前記符号化された音声波形を蓄積する第3の工程と,前記蓄積されたディジタル音声波形を取り出して復号化する第4の工程と,前記復号化されたディジタル音声波形をアナログ音声波形に変換する第5の工程と,を有する音声圧縮符号化方法において,前記第2の工程が,前記ディジタル音声波形をフレームまたはサブフレームと呼ばれる単位に分割するフレーム分割工程と,前記分割したフレームまたはサブフレームの単位のそれぞれについて,スペクトル包絡を表すスペクトル包絡情報,ピッチ情報および音源情報である雑音源情報を抽出し,符号化する抽出・符号化工程と,を含み,前記第4の工程が,符号化された前記スペクトル包絡情報,ピッチ情報および雑音源情報を復元する復元工程と,前記復元した雑音源情報およびピッチ情報から励振源信号を生成する励振源信号生成工程と,前記励振源信号と前記復元したスペクトル包絡情報から合成音声を生成する合成音声生成工程と,を含み,さらに,前記抽出・符号化工程が,前記雑音源情報を抽出・符号化する際に,前記フレームまたはサブフレームから前記ピッチ情報および前記スペクトル包絡情報から生成されるピッチ成分音声を除いた成分である二次誤差信号を抽出し,前記二次誤差信号を周波数領域に変換した後,前記周波数領域におけるスペクトル強度最大のものからあらかじめ定められた数の周波数を選定し,前記選定された周波数および前記選定された周波数のスペクトル係数を符号化することによって,前記二次誤差信号の符号とするものである。
【0016】
また,請求項3に係る音声圧縮符号化方法は,アナログ音声波形を入力してディジタル音声波形に変換する第1の工程と,前記ディジタル音声波形を所定の符号化方式で符号化する第2の工程と,前記符号化された音声波形を蓄積する第3の工程と,前記蓄積されたディジタル音声波形を取り出して復号化する第4の工程と,前記復号化されたディジタル音声波形をアナログ音声波形に変換する第5の工程と,を有する音声圧縮符号化方法において,前記第2の工程が,前記ディジタル音声波形をフレームまたはサブフレームと呼ばれる単位に分割するフレーム分割工程と,前記分割したフレームまたはサブフレームの単位のそれぞれについて,スペクトル包絡を表すスペクトル包絡情報,ピッチ情報および音源情報である雑音源情報を抽出し,符号化する抽出・符号化工程と,を含み,前記第4の工程が,符号化された前記スペクトル包絡情報,ピッチ情報および雑音源情報を復元する復元工程と,前記復元した雑音源情報およびピッチ情報から励振源信号を生成する励振源信号生成工程と,前記励振源信号と前記復元したスペクトル包絡情報から合成音声を生成する合成音声生成工程と,を含み,さらに,前記抽出・符号化工程が,前記雑音源情報を抽出・符号化する際に,前記フレームまたはサブフレームから前記ピッチ情報および前記スペクトル包絡情報から生成されるピッチ成分音声を除いた成分である二次誤差信号を抽出し,前記二次誤差信号の強度最大のものからあらかじめ定められた数のサンプル位置を選定し,前記選定されたサンプル位置および前記選定されたサンプル位置の振幅を符号化したものと,前記二次誤差信号を周波数領域に変換した後,前記二次誤差信号の周波数領域におけるスペクトル強度最大のものからあらかじめ定められた周波数を選定し,前記選定された周波数および前記選定された周波数のスペクトル係数を符号化したものと,によって前記二次誤差信号の符号とするものである。
【0017】
また,請求項4に係る音声圧縮符号化方法は,アナログ音声波形を入力してディジタル音声波形に変換する第1の工程と,前記ディジタル音声波形を所定の符号化方式で符号化する第2の工程と,前記符号化された音声波形を蓄積する第3の工程と,前記蓄積されたディジタル音声波形を取り出して復号化する第4の工程と,前記復号化されたディジタル音声波形をアナログ音声波形に変換する第5の工程と,を有する音声圧縮符号化方法において,前記第2の工程が,前記ディジタル音声波形をフレームまたはサブフレームと呼ばれる単位に分割するフレーム分割工程と,前記分割したフレームまたはサブフレームの単位のそれぞれについて,スペクトル包絡を表すスペクトル包絡情報,ピッチ情報および音源情報である雑音源情報を抽出し,符号化する抽出・符号化工程と,を含み,前記第4の工程が,符号化された前記スペクトル包絡情報,ピッチ情報および雑音源情報を復元する復元工程と,前記復元した雑音源情報およびピッチ情報から励振源信号を生成する励振源信号生成工程と,前記励振源信号と前記復元したスペクトル包絡情報から合成音声を生成する合成音声生成工程と,を含み,さらに,前記抽出・符号化工程が,前記雑音源情報を抽出・符号化する際に,前記フレームまたはサブフレームから前記ピッチ情報および前記スペクトル包絡情報から生成されるピッチ成分音声を除いた成分である二次誤差信号を抽出し,前記二次誤差信号の強度最大のものから幾つかのサンプル位置を選定し,前記選定されたサンプル位置および前記選定されたサンプル位置の振幅を符号化したものと,前記二次誤差信号を周波数領域に変換した後,前記二次誤差信号の周波数領域におけるスペクトル強度最大のものから幾つかの周波数を選定し,前記選定された周波数および前記選定された周波数のスペクトル係数を符号化したものと,を用い,さらに選定数の合計数をあらかじめ定めた数にし,復号音声のひずみが最も小さくなるように組み合わせを選択することによって,前記二次誤差信号の符号とするものである。
【0018】
また,請求項5に係る音声圧縮符号化方法は,請求項2乃至4のいずれか一つに記載の音声圧縮符号化方法において,前記抽出・符号化工程が,前記二次誤差信号を周波数領域に変換する際に,離散コサイン変換を用いるものである。
【0019】
また,請求項6に係る音声圧縮符号化方法は,請求項2乃至4のいずれか一つに記載の音声圧縮符号化方法において,前記抽出・符号化工程が,前記二次誤差信号を周波数領域に変換する際に,離散フーリエ変換を用いるものである。
【0020】
また,請求項7に係る音声圧縮符号化方法は,請求項2乃至4のいずれか一つに記載の音声圧縮符号化方法において,前記抽出・符号化工程が,前記二次誤差信号を周波数領域に変換する際に,K−L(Karhunen−Loeve)変換を用いるものである。
【0024】
また,請求項に係る音声圧縮符号化方法は,請求項2乃至4のいずれか一つに記載の音声圧縮符号化方法において,前記第4の工程が,前記符号化後の二次誤差信号である雑音源情報を時間軸に戻した量子化二次誤差信号に乱数を加える工程を含むものである。
【0025】
また,請求項に係る音声圧縮符号化装置は,アナログ音声波形を入力してディジタル音声波形に変換するA/D変換手段と,前記ディジタル音声波形を所定の符号化方式で符号化する音声符号化手段と,前記符号化された音声波形を蓄積する蓄積手段と,前記蓄積手段から前記符号化されたディジタル音声波形を取り出して復号化する音声復号化手段と,前記復号化されたディジタル音声波形をアナログ音声波形に変換するD/A変換手段と,を備えた音声圧縮符号化装置において,前記音声符号化手段が,前記ディジタル音声波形をフレームまたはサブフレームと呼ばれる単位に分割するフレーム分割手段と,前記分割したフレームまたはサブフレームの単位のそれぞれについて,スペクトル包絡を表すスペクトル包絡情報,ピッチ情報および音源情報である雑音源情報を抽出し,符号化する抽出・符号化手段と,を含み,前記音声復号化手段が,符号化された前記スペクトル包絡情報,ピッチ情報および雑音源情報を復元する復元手段と,前記復元した雑音源情報およびピッチ情報から励振源信号を生成する励振源信号生成手段と,前記励振源信号と前記復元したスペクトル包絡情報から合成音声を生成する合成音声生成手段と,を含み,さらに,前記抽出・符号化手段が,前記雑音源情報を抽出・符号化する際に,前記フレームまたはサブフレームから前記ピッチ情報および前記スペクトル包絡情報から生成されるピッチ成分音声を除いた成分である二次誤差信号を抽出し,前記二次誤差信号の強度最大のものからあらかじめ定められた数のサンプル位置を選定し,前記選定されたサンプル位置および前記選定されたサンプル位置の強度を符号化することによって前記雑音源情報の抽出・符号化を行うものである。
【0026】
また,請求項10に係る音声圧縮符号化装置は,アナログ音声波形を入力してディジタル音声波形に変換するA/D変換手段と,前記ディジタル音声波形を所定の符号化方式で符号化する音声符号化手段と,前記符号化された音声波形を蓄積する蓄積手段と,前記蓄積手段から前記符号化されたディジタル音声波形を取り出して復号化する音声復号化手段と,前記復号化されたディジタル音声波形をアナログ音声波形に変換するD/A変換手段と,を備えた音声圧縮符号化装置において,前記音声符号化手段が,前記ディジタル音声波形をフレームまたはサブフレームと呼ばれる単位に分割するフレーム分割手段と,前記分割したフレームまたはサブフレームの単位のそれぞれについて,スペクトル包絡を表すスペクトル包絡情報,ピッチ情報および音源情報である雑音源情報を抽出し,符号化する抽出・符号化手段と,を含み,前記音声復号化手段が,符号化された前記スペクトル包絡情報,ピッチ情報および雑音源情報を復元する復元手段と,前記復元した雑音源情報およびピッチ情報から励振源信号を生成する励振源信号生成手段と,前記励振源信号と前記復元したスペクトル包絡情報から合成音声を生成する合成音声生成手段と,を含み,さらに,前記抽出・符号化手段が,前記雑音源情報を抽出・符号化する際に,前記フレームまたはサブフレームから前記ピッチ情報および前記スペクトル包絡情報から生成されるピッチ成分音声を除いた成分である二次誤差信号を抽出し,前記二次誤差信号を周波数領域に変換した後,前記周波数領域におけるスペクトル強度最大のものからあらかじめ定められた数の周波数を選定し,前記選定された周波数および前記選定された周波数のスペクトル係数を符号化することによって,前記二次誤差信号の符号とするものである。
【0027】
また,請求項11に係る音声圧縮符号化装置は,アナログ音声波形を入力してディジタル音声波形に変換するA/D変換手段と,前記ディジタル音声波形を所定の符号化方式で符号化する音声符号化手段と,前記符号化された音声波形を蓄積する蓄積手段と,前記蓄積手段から前記符号化されたディジタル音声波形を取り出して復号化する音声復号化手段と,前記復号化されたディジタル音声波形をアナログ音声波形に変換するD/A変換手段と,を備えた音声圧縮符号化装置において,前記音声符号化手段が,前記ディジタル音声波形をフレームまたはサブフレームと呼ばれる単位に分割するフレーム分割手段と,前記分割したフレームまたはサブフレームの単位のそれぞれについて,スペクトル包絡を表すスペクトル包絡情報,ピッチ情報および音源情報である雑音源情報を抽出し,符号化する抽出・符号化手段と,を含み,前記音声復号化手段が,符号化された前記スペクトル包絡情報,ピッチ情報および雑音源情報を復元する復元手段と,前記復元した雑音源情報およびピッチ情報から励振源信号を生成する励振源信号生成手段と,前記励振源信号と前記復元したスペクトル包絡情報から合成音声を生成する合成音声生成手段と,を含み,さらに,前記抽出・符号化手段が,前記雑音源情報を抽出・符号化する際に,前記フレームまたはサブフレームから前記ピッチ情報および前記スペクトル包絡情報から生成されるピッチ成分音声を除いた成分である二次誤差信号を抽出し,前記二次誤差信号の強度最大のものからあらかじめ定められた数のサンプル位置を選定し,前記選定されたサンプル位置および前記選定されたサンプル位置の振幅を符号化したものと,前記二次誤差信号を周波数領域に変換した後,前記二次誤差信号の周波数領域におけるスペクトル強度最大のものからあらかじめ定められた周波数を選定し,前記選定された周波数および前記選定された周波数のスペクトル係数を符号化したものと,によって前記二次誤差信号の符号とするものである。
【0028】
また,請求項12に係る音声圧縮符号化装置は,アナログ音声波形を入力してディジタル音声波形に変換するA/D変換手段と,前記ディジタル音声波形を所定の符号化方式で符号化する音声符号化手段と,前記符号化された音声波形を蓄積する蓄積手段と,前記蓄積手段から前記符号化されたディジタル音声波形を取り出して復号化する音声復号化手段と,前記復号化されたディジタル音声波形をアナログ音声波形に変換するD/A変換手段と,を備えた音声圧縮符号化装置において,前記音声符号化手段が,前記ディジタル音声波形をフレームまたはサブフレームと呼ばれる単位に分割するフレーム分割手段と,前記分割したフレームまたはサブフレームの単位のそれぞれについて,スペクトル包絡を表すスペクトル包絡情報,ピッチ情報および音源情報である雑音源情報を抽出し,符号化する抽出・符号化手段と,を含み,前記音声復号化手段が,符号化された前記スペクトル包絡情報,ピッチ情報および雑音源情報を復元する復元手段と,前記復元した雑音源情報およびピッチ情報から励振源信号を生成する励振源信号生成手段と,前記励振源信号と前記復元したスペクトル包絡情報から合成音声を生成する合成音声生成手段と,を含み,さらに,前記抽出・符号化手段が,前記雑音源情報を抽出・符号化する際に,前記フレームまたはサブフレームから前記ピッチ情報および前記スペクトル包絡情報から生成されるピッチ成分音声を除いた成分である二次誤差信号を抽出し,前記二次誤差信号の強度最大のものから幾つかのサンプル位置を選定し,前記選定されたサンプル位置および前記選定されたサンプル位置の振幅を符号化したものと,前記二次誤差信号を周波数領域に変換した後,前記二次誤差信号の周波数領域におけるスペクトル強度最大のものから幾つかの周波数を選定し,前記選定された周波数および前記選定された周波数のスペクトル係数を符号化したものと,を用い,さらに選定数の合計数をあらかじめ定めた数にし,復号音声のひずみが最も小さくなるように組み合わせを選択することによって,前記二次誤差信号の符号とするものである。
【0029】
また,請求項13に係る音声圧縮符号化装置は,請求項10乃至12のいずれか一つに記載の音声圧縮符号化装置において,前記抽出・符号化手段が,前記二次誤差信号を周波数領域に変換する際に,離散コサイン変換を用いるものである。
【0030】
また,請求項14に係る音声圧縮符号化装置は,請求項10乃至12のいずれか一つに記載の音声圧縮符号化装置において,前記抽出・符号化手段が,前記二次誤差信号を周波数領域に変換する際に,離散フーリエ変換を用いるものである。
【0031】
また,請求項15に係る音声圧縮符号化装置は,請求項10乃至12のいずれか一つに記載の音声圧縮符号化装置において,前記抽出・符号化手段が,前記二次誤差信号を周波数領域に変換する際に,K−L(Karhunen−Loeve)変換を用いるものである。
【0035】
また,請求項16に係る音声圧縮符号化装置は,請求項10乃至12のいずれか一つに記載の音声圧縮符号化装置において,前記音声復号化手段が,前記符号化後の二次誤差信号である雑音源情報を時間軸に戻した量子化二次誤差信号に乱数を加えるものである。
【0036】
【発明の実施の形態】
以下,本発明の音声圧縮符号化方法および音声圧縮符号化装置について,〔実施の形態1〕,〔実施の形態2〕,〔実施の形態3〕,〔実施の形態4〕,〔実施の形態5〕,〔実施の形態6〕の順で,図面を参照して詳細に説明する。
【0037】
〔実施の形態1〕
図1は,実施の形態1の音声圧縮符号化装置100の概略構成図を示す。音声圧縮符号化装置100は,アナログ信号(アナログ音声波形)を入力してディジタル信号(ディジタル音声波形)に変換するA/D変換手段としてのA/D変換部101と,A/D変換部101からディジタル信号を入力して,圧縮符号化する音声符号化手段としての音声符号化部102と,圧縮符号化された圧縮符号化信号を蓄積する蓄積手段としての蓄積部103と,圧縮符号化信号を伸長復号する音声復号化手段としての音声復号化部104と,復号化されたディジタル信号をアナログ信号に変換するD/A変換手段としてのD/A変換部105と,から構成される。
【0038】
図2は,音声符号化部102のブロック構成図を示し,入力したディジタル信号をあらかじめ定められたサンプル数のフレーム単位に分割し,フレーム信号を出力するフレーム分割器201と,フレーム分割器201で分割したフレーム(フレーム信号)から,フレーム単位でスペクトル包絡を表すスペクトル包絡情報を抽出して符号化するスペクトル包絡抽出器202と,フレーム分割器201で分割したフレームをさらにあらかじめ定められたサンプル数のサブフレーム単位に分割し,サブフレーム信号を出力するサブフレーム分割器203と,スペクトル包絡抽出器202で抽出したスペクトル包絡情報を用いて,サブフレーム分割器203で分割したサブフレームからピッチ情報を抽出して符号化するピッチ情報抽出器204と,ピッチ情報とサブフレーム信号とを入力し,二次誤差信号を算出する二次誤差信号算出器205と,二次誤差信号とスペクトル包絡情報とから音源情報である雑音源情報を抽出して符号化する雑音源抽出器206と,から構成される。
【0039】
以上の構成において,その動作を説明する。図1において,アナログ音声入力装置(図示せず)から入力されたアナログ信号(アナログ音声波形)はA/D変換部101によってディジタル信号に変換される。ここで,アナログ音声入力装置としては,例えば,マイクロフォンや,CDプレーヤ,カセットデッキ等が挙げられる。
【0040】
続いて,ディジタル信号は,音声符号化部102に送られ,図2に示すように,フレーム分割器201によってあらかじめ定められたサンプル数(例えば,240サンプル)のフレームと呼ばれる単位に分割される。このフレームはフレーム信号としてスペクトル包絡抽出器202およびサブフレーム分割器203に出力される。
【0041】
スペクトル包絡抽出器202は,該フレーム信号からスペクトル包絡情報を抽出して符号化し,ピッチ情報抽出器204および二次誤差信号算出器205へ出力する。スペクトル包絡情報としては,例えば,線形予測分析に基づく線形予測係数,PARCOR係数,LSP係数等が挙げられる。またスペクトル包絡情報の符号化には,ベクトル量子化や,スカラー量子化,分割ベクトル量子化,多段ベクトル量子化,予測量子化,あるいはそれらの複数の量子化の組み合わせが挙げられる。
【0042】
一方,サブフレーム分割器203は,フレーム分割器201からフレーム信号を入力し,該フレーム信号をあらかじめ定められたサンプル数(例えば,60サンプル)に分割し,サブフレーム信号として出力する。
【0043】
各サブフレームは,ピッチ情報抽出器204において,スペクトル包絡抽出器202によって抽出されたスペクトル包絡情報を用いて,ピッチ情報が抽出され,符号化される。ピッチ情報抽出には,CELP方式で用いられる適応符号帳探索,あるいはフーリエ変換,ウェーブレット変換等のスペクトル包絡情報から求める方法が適用できる。また,上記適応符号帳探索には,聴覚重みづけフィルタを用いる場合もある。なお,聴覚重みづけフィルタは,前述した線形予測係数から構成することができる。
【0044】
二次誤差信号算出器205では,サブフレーム信号から,ピッチ情報抽出器204で抽出したピッチ成分(ピッチ情報)の影響を取り除いた成分(これを二次誤差信号と呼ぶ)を算出し,雑音源抽出器206へ出力する。
【0045】
雑音源抽出器206においては,二次誤差信号を入力すると,この二次誤差信号を直接符号化し,符号化した二次誤差信号(量子化二次誤差信号と呼ぶ)を雑音源情報として出力する。ここで,雑音源抽出器206で二次誤差信号を符号化する方法としては,二次誤差信号の強度最大のものからあらかじめ定められた数のサンプル位置を選定し,選定されたサンプル位置および選定されたサンプル位置の強度を符号化することによって,二次誤差信号を符号化する方法を適用する。これによって比較的演算量を少なくすることができる。
【0046】
なお,本発明に用いている音声符号化方法は,CELP音声符号化に属する符号化方法である。従来のCELP方式では,二次誤差信号の符号帳を持ち,符号帳に属する各符号ベクトルとスペクトル包絡情報とから二次誤差信号を合成し,入力信号から得られた二次誤差信号と比較し,そのひずみが最小となる符号を選択することによって符号化を行っている。因みに,この探索においては聴覚重みづけフィルタを用いることができる。
【0047】
ところが,CELP方式は,低ビットレートで高品質の音声圧縮符号化技術であるものの,符号帳探索のための演算量および符号帳を蓄えるためのメモリ量の多さが問題となっている。これに対して,実施の形態1では,二次誤差信号そのものを符号化するため,演算量を削減でき,また符号帳を記憶する必要がないため,低メモリ量のCELP方式を提供することができる。
【0048】
このようにして音声符号化部102は,ディジタル信号からスペクトル包絡情報,ピッチ情報および雑音源情報を抽出して符号化し,これらを量子化信号として出力する。これらの量子化信号は,圧縮符号化信号として蓄積部103によって蓄積される。
【0049】
このようにして蓄積部103に蓄積された圧縮符号化信号(量子化信号)は,必要に応じて,音声復号化部104によって読み出されて復号化(復元)され,D/A変換部105でアナログ信号(アナログ音声波形)に変換される。
【0050】
このとき,音声復号化部104は,符号化されたスペクトル包絡情報,ピッチ情報および雑音源情報を復元し,復元した雑音源情報およびピッチ情報から励振源信号を生成し,該励振源信号と復元したスペクトル包絡情報から復号音声(合成音声)を生成して,D/A変換部105に出力する。
【0051】
前述したように実施の形態1によれば,符号帳を持たないため,符号帳に必要なメモリ量が削減でき,さらにフィルタ計算を用いた符号帳探索を行わないため,演算量が削減できる。
【0052】
〔実施の形態2〕
実施の形態2の音声圧縮符号化装置は,二次誤差信号を符号化する際に,二次誤差信号を周波数領域に変換した後,変換領域における係数を符号化することにより,二次誤差信号の符号化とするものである。
【0053】
実施の形態2における周波数領域の係数としては,例えば,離散コサイン変換,離散フーリエ変換,K−L(Karhunen−Loeve)変換を用いることができる。周波数領域は,少ないパラメータで音声信号の特徴を表すことができるため,多くの音声処理に用いられている。また,周波数領域への変換は,例えば,FFT(高速フーリエ変換)を用いる等のように低演算量で変換可能なものが知られている。したがって,二次誤差信号を周波数領域に変換し,変換係数を符号化することにより,演算量を大幅に削減することが可能である。
【0054】
図3は,実施の形態2の雑音源抽出器301の概略ブロック図を示す。なお,基本的な構成および動作は,図1および図2で示した実施の形態1の音声圧縮符号化装置と同様に付き,ここでは異なる部分のみを説明する。
【0055】
雑音源抽出器301は,図示の如く,二次誤差信号算出器205から入力した二次誤差信号を離散コサイン変換によって周波数領域に変換する離散コサイン変換器302と,離散コサイン変換器302から周波数領域の係数(DCT係数)を入力し,該係数を符号化する係数符号化器303と,から構成される。
【0056】
なお,係数符号化器303は,変換領域における係数(周波数領域の係数)を符号化する際に,二次誤差信号の周波数領域におけるスペクトル強度最大のものからあらかじめ定められた数(例えば,2)の周波数を選定し,選定された周波数を符号化すると共に,その周波数のスペクトル係数(強度)も量子化強度として符号化する。符号化(量子化)の方法としては,例えば,振幅を対数変換し,その大きさ(強度)に対応させてあらかじめ設定した範囲に相当する符号を与える。この場合,選択された周波数に与えられた番号,強度の属する範囲に与えられた符号である量子化強度,および係数の符号(+/−)が二次誤差信号に対応する符号(すなわち,雑音源情報)となる。
【0057】
このようにして生成された雑音源情報は,実施の形態1と同様に蓄積部103に蓄積される。
【0058】
一方,実施の形態2の音声復号化部104は,蓄積部103から雑音源情報として,周波数に与えられた番号,量子化強度および係数の符号(+/−)を入力し,これらの雑音源情報から二次誤差信号を復元する必要があるため,離散コサイン係数を復元する構成および離散コサイン係数から二次誤差信号を復元する構成を追加する必要がある。
【0059】
図4は,実施の形態2の音声復号化部104の一部構成を示し,図示の如く,符号化された係数を入力して元の係数に復元する係数復元器401と,復元した係数を周波数領域から時間領域に戻す逆離散コサイン変換器402とを備えている。音声復号化部104では,蓄積部103から雑音源情報を入力すると,係数復元器401においてこれらの符号から各係数を復元し,さらに逆離散コサイン変換器402によって周波数領域から時間領域に戻し,量子化二次誤差信号として復元する。なお,符号化側で,ピッチ情報抽出に適応符号帳探索を用いる場合には,符号から各係数を復元し,時間領域に戻し,さらにスペクトル包絡情報を用いた線形予測逆フィルタ(図示せず)で残差領域に変換することにより,通常のCELPにおける雑音符号ベクトルとして用いることも可能である。
【0060】
前述したように実施の形態2によれば,実施の形態1の効果に加えて,音声波形の特徴である周波数特徴を符号化するので,少ないビット数で二次誤差信号を符号化することができる。また,離散コサイン変換は高速フーリエ変換によって高速かつ低演算量で実現することが可能であるので,さらに低演算量の符号化が可能となる。
【0061】
また,変換領域における係数を符号化する際に,二次誤差信号の周波数領域におけるスペクトル強度最大のものからあらかじめ定められた数の周波数を選定し,選定された周波数および選定された周波数のスペクトル係数を符号化することによって,二次誤差信号を符号化しているので,低演算量で二次誤差信号の符号化を行うことができる。
【0062】
なお,実施の形態2では,周波数領域の変換方法として,離散コサイン変換を用いたが,離散フーリエ変換またはK−L(Karhunen−Loeve)変換を用いても良く,同様に少ないビット数で二次誤差信号を符号化することができる。
【0063】
〔実施の形態3〕
実施の形態3の音声圧縮符号化装置は,二次誤差信号を符号化する際に,二次誤差信号の強度最大のものから幾つかのサンプル位置を選定し,選定されたサンプル位置および選定されたサンプル位置の振幅を符号化したものと,二次誤差信号の周波数領域におけるスペクトル強度最大のものから幾つかの周波数を選定し,選定された周波数および選定された周波数のスペクトル係数を符号化したものとによって,二次誤差信号を符号化するものである。
【0064】
図5は,実施の形態3の雑音源抽出器501の概略ブロック図を示す。なお,基本的な構成および動作は,図1および図2で示した実施の形態1の音声圧縮符号化装置と同様に付き,ここでは異なる部分のみを説明する。
【0065】
雑音源抽出器501は,図示の如く,二次誤差信号を入力し,二次誤差信号の強度最大のものからN1個のサンプルを選択し,その位置および強度を符号化する係数符号化器502aを有した時間領域符号化器502と,二次誤差信号を入力し,周波数領域変換器503aで二次誤差信号を周波数領域に変換し,係数符号化器503bで周波数の強度最大のものからN2個の周波数を選択し,その周波数のスペクトル係数を符号化する周波数領域符号化器503と,時間領域符号化器502および周波数領域符号化器503から送られてきたN1+N2個の符号のうち,時間領域からM1個,周波数領域からM2個を,M1とM2との和があらかじめ定めたM個となるように選択する係数選択器504と,から構成される。
【0066】
以上の構成において,時間領域符号化器502において,二次誤差信号の最大強度のものからN1個のサンプルを選択し,その位置およびその強度を符号化し,係数選択器504へ送る。
【0067】
また,周波数領域符号化器503において,先ず,二次誤差信号を周波数領域に変換し,強度再度のものからN2個の周波数を選択し,その周波数およびスペクトル係数を符号化し,係数選択器504へ送る。
【0068】
係数選択器504では,時間領域符号化器502および周波数領域符号化器503から送られてきたN1+N2個の符号のうち,時間領域からM1個,周波数領域からM2個を,M1とM2との和があらかじめ定めたM個となるように選択し,選択結果を二次誤差信号の符号化したデータ(雑音源情報)として出力する。
【0069】
前述したように実施の形態3によれば,時間領域の特徴と周波数領域の特徴との双方を組み合わせて符号化するため,実施の形態1または実施の形態2と比較して,同ビットレートで高音質の復号音声を得ることができる。
【0070】
〔実施の形態4〕
実施の形態4の音声圧縮符号化装置は,実施の形態3の音声圧縮符号化装置と同様の構成において,二次誤差信号の強度最大のものからあらかじめ定められた数のサンプル位置を選定し,選定されたサンプル位置および選定されたサンプル位置の振幅を符号化したものと,二次誤差信号の周波数領域におけるスペクトル強度最大のものからあらかじめ定められた周波数を選定し,選定された周波数および選定された周波数のスペクトル係数を符号化したものとによって,二次誤差信号を符号化するものである。
【0071】
具体的には,図5に示した実施の形態3の雑音源抽出器501において,時間領域符号化器502で選択するサンプル数N1と周波数領域符号化器503で選択するサンプル数N2とを固定し,かつ,M=N1+N2に設定した場合に相当する。
【0072】
実施の形態4によれば,実施の形態3と同様に時間領域の特徴と周波数領域の特徴との双方を組み合わせて符号化するため,実施の形態1または実施の形態2と比較して,同ビットレートで高音質の復号音声を得ることができる。
【0073】
〔実施の形態5〕
実施の形態5の音声圧縮符号化装置は,実施の形態3の音声圧縮符号化装置と同様の構成において,二次誤差信号の強度最大のものから幾つかのサンプル位置を選定し,選定されたサンプル位置および選定されたサンプル位置の振幅を符号化したものと,二次誤差信号の周波数領域におけるスペクトル強度最大のものから幾つかの周波数を選定し,選定された周波数および選定された周波数のスペクトル係数を符号化したものとを用い,さらに選定数の合計数をあらかじめ定めた数にし,復号音声のひずみが最も小さくなるように組み合わせを選択することによって,二次誤差信号を符号化するものである。換言すれば,復号音声のひずみが最小となるように時間領域の係数および周波数領域の係数の数を調整するものである。
【0074】
具体的には,図5に示した実施の形態3の雑音源抽出器501において,係数選択器504で,サンプル数M1,M2の組み合わせてとして考えられる全ての組み合わせについて,入力音声とのひずみを算出し,そのひずみが最も小さくなるM1とM2とを選択し,その値に相当する符号を用いて二次誤差信号の符号とする。なお,この場合にはM1とM2の組み合わせを表現するための情報の符号化する必要があるが,例えば,Mが2とか,3といった値の場合,サブフレーム当たり2ビット程度の増加で良い。
【0075】
実施の形態5によれば,実施の形態3と同様に時間領域の特徴と周波数領域の特徴との双方を組み合わせて符号化するため,実施の形態1または実施の形態2と比較して,同ビットレートで高音質の復号音声を得ることができる。
【0076】
また,実施の形態3と比較した場合でも,復号音声のひずみが最小となるように時間領域の係数および周波数領域の係数の数を調整するので,ビットレートを増やすことなく,さらに高音質の復号音声を得ることができる。
【0077】
〔実施の形態6〕
実施の形態6の音声圧縮符号化装置は,実施の形態2と同様に,二次誤差信号を符号化する際に,二次誤差信号を周波数領域に変換した後,変換領域における係数を符号化することにより,二次誤差信号の符号化とすることに加えて,さらに,雑音源情報を復元する際に,復号側(本発明の音声復号化手段)で,雑音源情報(符号化後の二次誤差信号)を時間軸に戻した量子化二次誤差信号とした後,乱数を加えるものである。なお,基本的な構成および動作は,実施の形態2の音声圧縮符号化装置と同様に付き,ここでは異なる部分のみを説明する。
【0078】
図6は,実施の形態6の音声復号化部104の一部構成を示し,図示の如く,符号化された係数を入力して元の係数に復元する係数復元器601と,復元した係数を周波数領域から時間領域に戻す逆離散コサイン変換器602と,量子化二次誤差信号に乱数を加えるための白色雑音付加器603と,を備えている。なお,ここでは,白色雑音を加えることによって乱数を与える例を示すが,特にこれに限定するものではなく,他の方法であっても良い。
【0079】
以上の構成において,その動作を説明する。音声復号化部104では,蓄積部103から雑音源情報を入力すると,係数復元器601においてこれらの符号から各係数を復元し,さらに逆離散コサイン変換器602によって周波数領域から時間領域に戻し,量子化二次誤差信号に復元する。続いて,白色雑音付加器603で,量子化二次誤差信号に白色雑音を与えることにより乱数を加え,雑音付加量子化二次誤差信号として出力する。
【0080】
符号側(音声符号化部102)において,二次誤差信号を符号化する際に,二次誤差信号を周波数領域に変換した後,強度が最大のものだけを残して符号化した場合でも,それ以外のスペクトル成分が含まれることが多い。したがって,実施の形態6に示すように,復元側(音声復号化部104)で,量子化二次誤差信号に乱数を加えることにより,実施の形態1〜実施の形態5と比較して,より自然な復号音声を得ることができるようになる。
【0081】
参考例1
参考例1の音声圧縮符号化装置は,実施の形態2と同様に,二次誤差信号を符号化する際に,二次誤差信号を周波数領域に変換した後,変換領域における係数を符号化することにより,二次誤差信号の符号化とすることに加えて,さらに,雑音源情報を復元する際に,復号側(本発明の音声復号化手段)で,雑音源情報(符号化後の二次誤差信号)を時間軸に戻した量子化二次誤差信号とした後,1/fゆらぎを加えるものである。なお,基本的な構成および動作は,実施の形態2の音声圧縮符号化装置と同様に付き,ここでは異なる部分のみを説明する。
【0082】
図7は,参考例1の音声復号化部104の一部構成を示し,図示の如く,符号化された係数を入力して元の係数に復元する係数復元器701と,復元した係数を周波数領域から時間領域に戻す逆離散コサイン変換器702と,量子化二次誤差信号に1/fゆらぎを加えるための1/fゆらぎ付加器703と,を備えている。
【0083】
以上の構成において,その動作を説明する。音声復号化部104では,蓄積部103から雑音源情報を入力すると,係数復元器701においてこれらの符号から各係数を復元し,さらに逆離散コサイン変換器702によって周波数領域から時間領域に戻し,量子化二次誤差信号に復元する。続いて,1/fゆらぎ付加器703で,量子化二次誤差信号に1/fゆらぎを与えることにより乱数を加え,1/fゆらぎ付加量子化二次誤差信号として出力する。
【0084】
符号側(音声符号化部102)において,二次誤差信号を符号化する際に,例えば,二次誤差信号を周波数領域に変換した後,強度が最大のものだけを残して符号化した場合でも,それ以外のスペクトル成分が含まれることが多い。したがって,実施の形態7に示すように,復元側(音声復号化部104)で,量子化二次誤差信号に1/fゆらぎを加えることにより,実施の形態1〜実施の形態5と比較して,より自然な復号音声を得ることができるようになる。
【0085】
【発明の効果】
以上説明したように,本発明の音声圧縮符号化方法(請求項1)は,雑音源情報を抽出・符号化する際に,フレームまたはサブフレームからピッチ情報およびスペクトル包絡情報から生成されるピッチ成分音声を除いた成分であり,かつスペクトル包絡成分を含む二次誤差信号を抽出し,二次誤差信号の強度最大のものからあらかじめ定められた数のサンプル位置を選定し,選定されたサンプル位置および選定されたサンプル位置の強度を符号化することによって,雑音源情報の抽出・符号化を行うため,スペクトル包絡成分を除去した残差領域における符号帳を用いた符号化と異なり,CELP方式の符号化の過程において,演算量を削減すると共に,メモリ量の低減を図ることができる。
【0086】
また,本発明の音声圧縮符号化方法(請求項2)は,変換領域における係数を符号化する際に,二次誤差信号の周波数領域におけるスペクトル強度最大のものからあらかじめ定められた数の周波数を選定し,選定された周波数および選定された周波数のスペクトル係数を符号化することによって,二次誤差信号の符号とするため,周波数領域の係数の符号化を比較的低演算量で実現できる。
【0087】
また,本発明の音声圧縮符号化方法(請求項3)は,二次誤差信号の強度最大のものから幾つかのサンプル位置を選定し,選定されたサンプル位置および選定されたサンプル位置の振幅を符号化したものと,二次誤差信号の周波数領域におけるスペクトル強度最大のものから幾つかの周波数を選定し,選定された周波数および選定された周波数のスペクトル係数を符号化したものとによって,二次誤差信号の符号とするため,換言すれば,時間領域の特徴と周波数領域の特徴との双方を組み合わせて符号化するため,同ビットレートで高音質の復号音声を得ることができる。
【0088】
また,本発明の音声圧縮符号化方法(請求項4)は,二次誤差信号の強度最大のものから幾つかのサンプル位置を選定し,選定されたサンプル位置および選定されたサンプル位置の振幅を符号化したものと,二次誤差信号の周波数領域におけるスペクトル強度最大のものから幾つかの周波数を選定し,選定された周波数および選定された周波数のスペクトル係数を符号化したものとを用い,さらに選定数の合計数をあらかじめ定めた数にし,復号音声のひずみが最も小さくなるように組み合わせを選択することによって,二次誤差信号の符号とするため,ビットレートを増やすことなく,高音質の復号音声を得ることができる。
【0089】
また,本発明の音声圧縮符号化方法(請求項5)は,請求項2乃至4のいずれか1つに記載の音声圧縮符号化方法において,二次誤差信号を周波数領域に変換する際に,離散コサイン変換を用いるため,高速かつ低演算量で符号化を行うことができる。
【0090】
また,本発明の音声圧縮符号化方法(請求項6)は,請求項2乃至4のいずれか1つに記載の音声圧縮符号化方法において,二次誤差信号を周波数領域に変換する際に,離散フーリエ変換を用いるため,高速かつ低演算量で符号化を行うことができる。
【0091】
また,本発明の音声圧縮符号化方法(請求項7)は,請求項2乃至4のいずれか1つに記載の音声圧縮符号化方法において,二次誤差信号を周波数領域に変換する際に,K−L(Karhunen−Loeve)変換を用いるため,高速かつ低演算量で符号化を行うことができる。
【0095】
また,本発明の音声圧縮符号化方法(請求項)は,請求項2乃至4のいずれか1つに記載の音声圧縮符号化方法において,符号化後の二次誤差信号である雑音源情報を時間軸に戻した量子化二次誤差信号に乱数を加えるため,より自然な復号音声を得ることができる。
【0096】
また,本発明の音声圧縮符号化装置(請求項)は,雑音源情報を抽出・符号化する際に,フレームまたはサブフレームからピッチ情報およびスペクトル包絡情報から生成されるピッチ成分音声を除いた成分であり,かつスペクトル包絡成分を含む二次誤差信号を抽出し,二次誤差信号の強度最大のものからあらかじめ定められた数のサンプル位置を選定し,選定されたサンプル位置および選定されたサンプル位置の強度を符号化することによって,雑音源情報の抽出・符号化を行うため,スペクトル包絡成分を除去した残差領域における符号帳を用いた符号化と異なり,CELP方式の符号化の過程において,演算量を削減すると共に,メモリ量の低減を図ることができる。
【0097】
また,本発明の音声圧縮符号化装置(請求項10)は,変換領域における係数を符号化する際に,二次誤差信号の周波数領域におけるスペクトル強度最大のものからあらかじめ定められた数の周波数を選定し,選定された周波数および選定された周波数のスペクトル係数を符号化することによって,二次誤差信号の符号とするため,周波数領域の係数の符号化を比較的低演算量で実現できる。
【0098】
また,本発明の音声圧縮符号化装置(請求項11)は,二次誤差信号の強度最大のものから幾つかのサンプル位置を選定し,選定されたサンプル位置および選定されたサンプル位置の振幅を符号化したものと,二次誤差信号の周波数領域におけるスペクトル強度最大のものから幾つかの周波数を選定し,選定された周波数および選定された周波数のスペクトル係数を符号化したものとによって,二次誤差信号の符号とするため,換言すれば,時間領域の特徴と周波数領域の特徴との双方を組み合わせて符号化するため,同ビットレートで高音質の復号音声を得ることができる。
【0099】
また,本発明の音声圧縮符号化装置(請求項12)は,二次誤差信号の強度最大のものから幾つかのサンプル位置を選定し,選定されたサンプル位置および選定されたサンプル位置の振幅を符号化したものと,二次誤差信号の周波数領域におけるスペクトル強度最大のものから幾つかの周波数を選定し,選定された周波数および選定された周波数のスペクトル係数を符号化したものとを用い,さらに選定数の合計数をあらかじめ定めた数にし,復号音声のひずみが最も小さくなるように組み合わせを選択することによって,二次誤差信号の符号とするため,ビットレートを増やすことなく,高音質の復号音声を得ることができる。
【0100】
また,本発明の音声圧縮符号化装置(請求項13)は,請求項10乃至12のいずれか1つに記載の音声圧縮符号化方法において,二次誤差信号を周波数領域に変換する際に,離散コサイン変換を用いるため,高速かつ低演算量で符号化を行うことができる。
【0101】
また,本発明の音声圧縮符号化装置(請求項14)は,請求項10乃至12のいずれか1つに記載の音声圧縮符号化方法において,二次誤差信号を周波数領域に変換する際に,離散フーリエ変換を用いるため,高速かつ低演算量で符号化を行うことができる。
【0102】
また,本発明の音声圧縮符号化装置(請求項15)は,請求項10乃至12のいずれか1つに記載の音声圧縮符号化方法において,二次誤差信号を周波数領域に変換する際に,K−L(Karhunen−Loeve)変換を用いるため,高速かつ低演算量で符号化を行うことができる。
【0106】
また,本発明の音声圧縮符号化装置(請求項16)は,請求項10乃至12のいずれか1つに記載の音声圧縮符号化装置において,音声復号化手段が,符号化後の二次誤差信号である雑音源情報を時間軸に戻した量子化二次誤差信号に乱数を加えるため,より自然な復号音声を得ることができる。
【図面の簡単な説明】
【図1】 実施の形態1の音声圧縮符号化装置の概略構成図である。
【図2】 実施の形態1の音声符号化部のブロック構成図である。
【図3】 実施の形態2の雑音源抽出器の概略ブロック図である。
【図4】 実施の形態2の音声復号化部の一部構成を示すブロック図である。
【図5】 実施の形態3の雑音源抽出器の概略ブロック図である。
【図6】 実施の形態6の音声復号化部の一部構成を示すブロック図である。
【図7】 参考例1の音声復号化部の一部構成を示すブロック図である。
【符号の説明】
100 音声圧縮符号化装置
101 A/D変換部
102 音声符号化部
103 蓄積部
104 音声復号化部
105 D/A変換部
201 フレーム分割器
202 スペクトル包絡抽出器
203 サブフレーム分割器
204 ピッチ情報抽出器
205 二次誤差信号算出器
206 雑音源抽出器
301 雑音源抽出器
302 離散コサイン変換器
303 係数符号化器
401 係数復元器
402 逆離散コサイン変換器
501 雑音源抽出器
502 時間領域符号化器
502a 係数符号化器
503 周波数領域符号化器
503a 周波数領域変換器
503b 係数符号化器
504 係数選択器
601 係数復元器
602 逆離散コサイン変換器
603 白色雑音付加器
701 係数復元器
702 逆離散コサイン変換器
703 1/fゆらぎ付加器

Claims (16)

  1. アナログ音声波形を入力してディジタル音声波形に変換する第1の工程と,前記ディジタル音声波形を所定の符号化方式で符号化する第2の工程と,前記符号化された音声波形を蓄積する第3の工程と,前記蓄積されたディジタル音声波形を取り出して復号化する第4の工程と,前記復号化されたディジタル音声波形をアナログ音声波形に変換する第5の工程と,を有する音声圧縮符号化方法において,
    前記第2の工程が,前記ディジタル音声波形をフレームまたはサブフレームと呼ばれる単位に分割するフレーム分割工程と,前記分割したフレームまたはサブフレームの単位のそれぞれについて,スペクトル包絡を表すスペクトル包絡情報,ピッチ情報および音源情報である雑音源情報を抽出し,符号化する抽出・符号化工程と,を含み,
    前記第4の工程が,符号化された前記スペクトル包絡情報,ピッチ情報および雑音源情報を復元する復元工程と,前記復元した雑音源情報およびピッチ情報から励振源信号を生成する励振源信号生成工程と,前記励振源信号と前記復元したスペクトル包絡情報から合成音声を生成する合成音声生成工程と,を含み,
    さらに,前記抽出・符号化工程が,前記雑音源情報を抽出・符号化する際に,前記フレームまたはサブフレームから前記ピッチ情報および前記スペクトル包絡情報から生成されるピッチ成分音声を除いた成分である二次誤差信号を抽出し,前記二次誤差信号の強度最大のものからあらかじめ定められた数のサンプル位置を選定し,前記選定されたサンプル位置および前記選定されたサンプル位置の強度を符号化することによって前記雑音源情報の抽出・符号化を行うことを特徴とする音声圧縮符号化方法。
  2. アナログ音声波形を入力してディジタル音声波形に変換する第1の工程と,前記ディジタル音声波形を所定の符号化方式で符号化する第2の工程と,前記符号化された音声波形を蓄積する第3の工程と,前記蓄積されたディジタル音声波形を取り出して復号化する第4の工程と,前記復号化されたディジタル音声波形をアナログ音声波形に変換する第5の工程と,を有する音声圧縮符号化方法において,
    前記第2の工程が,前記ディジタル音声波形をフレームまたはサブフレームと呼ばれる単位に分割するフレーム分割工程と,前記分割したフレームまたはサブフレームの単位のそれぞれについて,スペクトル包絡を表すスペクトル包絡情報,ピッチ情報および音源情報である雑音源情報を抽出し,符号化する抽出・符号化工程と,を含み,
    前記第4の工程が,符号化された前記スペクトル包絡情報,ピッチ情報および雑音源情報を復元する復元工程と,前記復元した雑音源情報およびピッチ情報から励振源信号を生成する励振源信号生成工程と,前記励振源信号と前記復元したスペクトル包絡情報から合成音声を生成する合成音声生成工程と,を含み,
    さらに,前記抽出・符号化工程が,前記雑音源情報を抽出・符号化する際に,前記フレームまたはサブフレームから前記ピッチ情報および前記スペクトル包絡情報から生成されるピッチ成分音声を除いた成分である二次誤差信号を抽出し,前記二次誤差信号を周波数領域に変換した後,前記周波数領域におけるスペクトル強度最大のものからあらかじめ定められた数の周波数を選定し,前記選定された周波数および前記選定された周波数のスペクトル係数を符号化することによって,前記二次誤差信号の符号とすること,
    を特徴とする音声圧縮符号化方法。
  3. アナログ音声波形を入力してディジタル音声波形に変換する第1の工程と,前記ディジタル音声波形を所定の符号化方式で符号化する第2の工程と,前記符号化された音声波形を蓄積する第3の工程と,前記蓄積されたディジタル音声波形を取り出して復号化する第4の工程と,前記復号化されたディジタル音声波形をアナログ音声波形に変換する第5の工程と,を有する音声圧縮符号化方法において,
    前記第2の工程が,前記ディジタル音声波形をフレームまたはサブフレームと呼ばれる単位に分割するフレーム分割工程と,前記分割したフレームまたはサブフレームの単位のそれぞれについて,スペクトル包絡を表すスペクトル包絡情報,ピッチ情報および音源情報である雑音源情報を抽出し,符号化する抽出・符号化工程と,を含み,
    前記第4の工程が,符号化された前記スペクトル包絡情報,ピッチ情報および雑音源情 報を復元する復元工程と,前記復元した雑音源情報およびピッチ情報から励振源信号を生成する励振源信号生成工程と,前記励振源信号と前記復元したスペクトル包絡情報から合成音声を生成する合成音声生成工程と,を含み,
    さらに,前記抽出・符号化工程が,前記雑音源情報を抽出・符号化する際に,前記フレームまたはサブフレームから前記ピッチ情報および前記スペクトル包絡情報から生成されるピッチ成分音声を除いた成分である二次誤差信号を抽出し,前記二次誤差信号の強度最大のものからあらかじめ定められた数のサンプル位置を選定し,前記選定されたサンプル位置および前記選定されたサンプル位置の振幅を符号化したものと,前記二次誤差信号を周波数領域に変換した後,前記二次誤差信号の周波数領域におけるスペクトル強度最大のものからあらかじめ定められた周波数を選定し,前記選定された周波数および前記選定された周波数のスペクトル係数を符号化したものと,によって前記二次誤差信号の符号とすること,
    を特徴とする音声圧縮符号化方法。
  4. アナログ音声波形を入力してディジタル音声波形に変換する第1の工程と,前記ディジタル音声波形を所定の符号化方式で符号化する第2の工程と,前記符号化された音声波形を蓄積する第3の工程と,前記蓄積されたディジタル音声波形を取り出して復号化する第4の工程と,前記復号化されたディジタル音声波形をアナログ音声波形に変換する第5の工程と,を有する音声圧縮符号化方法において,
    前記第2の工程が,前記ディジタル音声波形をフレームまたはサブフレームと呼ばれる単位に分割するフレーム分割工程と,前記分割したフレームまたはサブフレームの単位のそれぞれについて,スペクトル包絡を表すスペクトル包絡情報,ピッチ情報および音源情報である雑音源情報を抽出し,符号化する抽出・符号化工程と,を含み,
    前記第4の工程が,符号化された前記スペクトル包絡情報,ピッチ情報および雑音源情報を復元する復元工程と,前記復元した雑音源情報およびピッチ情報から励振源信号を生成する励振源信号生成工程と,前記励振源信号と前記復元したスペクトル包絡情報から合成音声を生成する合成音声生成工程と,を含み,
    さらに,前記抽出・符号化工程が,前記雑音源情報を抽出・符号化する際に,前記フレームまたはサブフレームから前記ピッチ情報および前記スペクトル包絡情報から生成されるピッチ成分音声を除いた成分である二次誤差信号を抽出し,前記二次誤差信号の強度最大のものから幾つかのサンプル位置を選定し,前記選定されたサンプル位置および前記選定されたサンプル位置の振幅を符号化したものと,前記二次誤差信号を周波数領域に変換した後,前記二次誤差信号の周波数領域におけるスペクトル強度最大のものから幾つかの周波数を選定し,前記選定された周波数および前記選定された周波数のスペクトル係数を符号化したものと,を用い,さらに選定数の合計数をあらかじめ定めた数にし,復号音声のひずみが最も小さくなるように組み合わせを選択することによって,前記二次誤差信号の符号とすること,
    を特徴とする音声圧縮符号化方法。
  5. 請求項2乃至4のいずれか一つに記載の音声圧縮符号化方法において,
    前記抽出・符号化工程が,前記二次誤差信号を周波数領域に変換する際に,離散コサイン変換を用いることを特徴とする音声圧縮符号化方法。
  6. 請求項2乃至4のいずれか一つに記載の音声圧縮符号化方法において,
    前記抽出・符号化工程が,前記二次誤差信号を周波数領域に変換する際に,離散フーリエ変換を用いることを特徴とする音声圧縮符号化方法。
  7. 請求項2乃至4のいずれか一つに記載の音声圧縮符号化方法において,
    前記抽出・符号化工程が,前記二次誤差信号を周波数領域に変換する際に,K−L(Karhunen−Loeve)変換を用いることを特徴とする音声圧縮符号化方法。
  8. 請求項2乃至4のいずれか一つに記載の音声圧縮符号化方法において,
    前記第4の工程が,前記符号化後の二次誤差信号である雑音源情報を時間軸に戻した量子化二次誤差信号に乱数を加える工程を含むことを特徴とする音声圧縮符号化方法。
  9. アナログ音声波形を入力してディジタル音声波形に変換するA/D変換手段と,前記ディジタル音声波形を所定の符号化方式で符号化する音声符号化手段と,前記符号化された音声波形を蓄積する蓄積手段と,前記蓄積手段から前記符号化されたディジタル音声波形を取り出して復号化する音声復号化手段と,前記復号化されたディジタル音声波形をアナログ音声波形に変換するD/A変換手段と,を備えた音声圧縮符号化装置において,
    前記音声符号化手段が,前記ディジタル音声波形をフレームまたはサブフレームと呼ばれる単位に分割するフレーム分割手段と,前記分割したフレームまたはサブフレームの単位のそれぞれについて,スペクトル包絡を表すスペクトル包絡情報,ピッチ情報および音源情報である雑音源情報を抽出し,符号化する抽出・符号化手段と,を含み,
    前記音声復号化手段が,符号化された前記スペクトル包絡情報,ピッチ情報および雑音源情報を復元する復元手段と,前記復元した雑音源情報およびピッチ情報から励振源信号を生成する励振源信号生成手段と,前記励振源信号と前記復元したスペクトル包絡情報から合成音声を生成する合成音声生成手段と,を含み,
    さらに,前記抽出・符号化手段が,前記雑音源情報を抽出・符号化する際に,前記フレームまたはサブフレームから前記ピッチ情報および前記スペクトル包絡情報から生成されるピッチ成分音声を除いた成分である二次誤差信号を抽出し,前記二次誤差信号の強度最大のものからあらかじめ定められた数のサンプル位置を選定し,前記選定されたサンプル位置および前記選定されたサンプル位置の強度を符号化することによって前記雑音源情報の抽出・符号化を行うことを特徴とする音声圧縮符号化装置。
  10. アナログ音声波形を入力してディジタル音声波形に変換するA/D変換手段と,前記ディジタル音声波形を所定の符号化方式で符号化する音声符号化手段と,前記符号化された音声波形を蓄積する蓄積手段と,前記蓄積手段から前記符号化されたディジタル音声波形を取り出して復号化する音声復号化手段と,前記復号化されたディジタル音声波形をアナログ音声波形に変換するD/A変換手段と,を備えた音声圧縮符号化装置において,
    前記音声符号化手段が,前記ディジタル音声波形をフレームまたはサブフレームと呼ばれる単位に分割するフレーム分割手段と,前記分割したフレームまたはサブフレームの単位のそれぞれについて,スペクトル包絡を表すスペクトル包絡情報,ピッチ情報および音源情報である雑音源情報を抽出し,符号化する抽出・符号化手段と,を含み,
    前記音声復号化手段が,符号化された前記スペクトル包絡情報,ピッチ情報および雑音源情報を復元する復元手段と,前記復元した雑音源情報およびピッチ情報から励振源信号を生成する励振源信号生成手段と,前記励振源信号と前記復元したスペクトル包絡情報から合成音声を生成する合成音声生成手段と,を含み,
    さらに,前記抽出・符号化手段が,前記雑音源情報を抽出・符号化する際に,前記フレームまたはサブフレームから前記ピッチ情報および前記スペクトル包絡情報から生成されるピッチ成分音声を除いた成分である二次誤差信号を抽出し,前記二次誤差信号を周波数領域に変換した後,前記周波数領域におけるスペクトル強度最大のものからあらかじめ定められた数の周波数を選定し,前記選定された周波数および前記選定された周波数のスペクトル係数を符号化することによって,前記二次誤差信号の符号とすること,
    を特徴とする音声圧縮符号化装置。
  11. アナログ音声波形を入力してディジタル音声波形に変換するA/D変換手段と,前記ディジタル音声波形を所定の符号化方式で符号化する音声符号化手段と,前記符号化された音声波形を蓄積する蓄積手段と,前記蓄積手段から前記符号化されたディジタル音声波形を取り出して復号化する音声復号化手段と,前記復号化されたディジタル音声波形をアナログ音声波形に変換するD/A変換手段と,を備えた音声圧縮符号化装置において,
    前記音声符号化手段が,前記ディジタル音声波形をフレームまたはサブフレームと呼ばれる単位に分割するフレーム分割手段と,前記分割したフレームまたはサブフレームの単位のそれぞれについて,スペクトル包絡を表すスペクトル包絡情報,ピッチ情報および音源情報である雑音源情報を抽出し,符号化する抽出・符号化手段と,を含み,
    前記音声復号化手段が,符号化された前記スペクトル包絡情報,ピッチ情報および雑音源情報を復元する復元手段と,前記復元した雑音源情報およびピッチ情報から励振源信号を生成する励振源信号生成手段と,前記励振源信号と前記復元したスペクトル包絡情報から合成音声を生成する合成音声生成手段と,を含み,
    さらに,前記抽出・符号化手段が,前記雑音源情報を抽出・符号化する際に,前記フレームまたはサブフレームから前記ピッチ情報および前記スペクトル包絡情報から生成されるピッチ成分音声を除いた成分である二次誤差信号を抽出し,前記二次誤差信号の強度最大のものからあらかじめ定められた数のサンプル位置を選定し,前記選定されたサンプル位置および前記選定されたサンプル位置の振幅を符号化したものと,前記二次誤差信号を周波数領域に変換した後,前記二次誤差信号の周波数領域におけるスペクトル強度最大のものからあらかじめ定められた周波数を選定し,前記選定された周波数および前記選定された周波数のスペクトル係数を符号化したものと,によって前記二次誤差信号の符号とすること,
    を特徴とする音声圧縮符号化装置。
  12. アナログ音声波形を入力してディジタル音声波形に変換するA/D変換手段と,前記ディジタル音声波形を所定の符号化方式で符号化する音声符号化手段と,前記符号化された音声波形を蓄積する蓄積手段と,前記蓄積手段から前記符号化されたディジタル音声波形を取り出して復号化する音声復号化手段と,前記復号化されたディジタル音声波形をアナログ音声波形に変換するD/A変換手段と,を備えた音声圧縮符号化装置において,
    前記音声符号化手段が,前記ディジタル音声波形をフレームまたはサブフレームと呼ばれる単位に分割するフレーム分割手段と,前記分割したフレームまたはサブフレームの単位のそれぞれについて,スペクトル包絡を表すスペクトル包絡情報,ピッチ情報および音源情報である雑音源情報を抽出し,符号化する抽出・符号化手段と,を含み,
    前記音声復号化手段が,符号化された前記スペクトル包絡情報,ピッチ情報および雑音源情報を復元する復元手段と,前記復元した雑音源情報およびピッチ情報から励振源信号を生成する励振源信号生成手段と,前記励振源信号と前記復元したスペクトル包絡情報から合成音声を生成する合成音声生成手段と,を含み,
    さらに,前記抽出・符号化手段が,前記雑音源情報を抽出・符号化する際に,前記フレームまたはサブフレームから前記ピッチ情報および前記スペクトル包絡情報から生成されるピッチ成分音声を除いた成分である二次誤差信号を抽出し,前記二次誤差信号の強度最大のものから幾つかのサンプル位置を選定し,前記選定されたサンプル位置および前記選定されたサンプル位置の振幅を符号化したものと,前記二次誤差信号を周波数領域に変換した後,前記二次誤差信号の周波数領域におけるスペクトル強度最大のものから幾つかの周波数を選定し,前記選定された周波数および前記選定された周波数のスペクトル係数を符号化したものと,を用い,さらに選定数の合計数をあらかじめ定めた数にし,復号音声のひずみが最も小さくなるように組み合わせを選択することによって,前記二次誤差信号の符号とすること,
    を特徴とする音声圧縮符号化装置。
  13. 請求項10乃至12のいずれか一つに記載の音声圧縮符号化装置において,
    前記抽出・符号化手段が,前記二次誤差信号を周波数領域に変換する際に,離散コサイン変換を用いることを特徴とする音声圧縮符号化装置。
  14. 請求項10乃至12のいずれか一つに記載の音声圧縮符号化装置において,
    前記抽出・符号化手段が,前記二次誤差信号を周波数領域に変換する際に,離散フーリエ変換を用いることを特徴とする音声圧縮符号化装置。
  15. 請求項10乃至12のいずれか一つに記載の音声圧縮符号化装置において,
    前記抽出・符号化手段が,前記二次誤差信号を周波数領域に変換する際に,K−L(Karhunen−Loeve)変換を用いることを特徴とする音声圧縮符号化装置。
  16. 請求項10乃至12のいずれか一つに記載の音声圧縮符号化装置において,
    前記音声復号化手段が,前記符号化後の二次誤差信号である雑音源情報を時間軸に戻した量子化二次誤差信号に乱数を加えることを特徴とする音声圧縮符号化装置。
JP25883396A 1996-06-21 1996-09-30 音声圧縮符号化方法および音声圧縮符号化装置 Expired - Fee Related JP3878254B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP25883396A JP3878254B2 (ja) 1996-06-21 1996-09-30 音声圧縮符号化方法および音声圧縮符号化装置
US08/877,710 US5943644A (en) 1996-06-21 1997-06-18 Speech compression coding with discrete cosine transformation of stochastic elements

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP8-162151 1996-06-21
JP16215196 1996-06-21
JP21356696 1996-08-13
JP8-213566 1996-08-13
JP25883396A JP3878254B2 (ja) 1996-06-21 1996-09-30 音声圧縮符号化方法および音声圧縮符号化装置

Publications (2)

Publication Number Publication Date
JPH10111700A JPH10111700A (ja) 1998-04-28
JP3878254B2 true JP3878254B2 (ja) 2007-02-07

Family

ID=27321959

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25883396A Expired - Fee Related JP3878254B2 (ja) 1996-06-21 1996-09-30 音声圧縮符号化方法および音声圧縮符号化装置

Country Status (2)

Country Link
US (1) US5943644A (ja)
JP (1) JP3878254B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107871492A (zh) * 2016-12-26 2018-04-03 珠海市杰理科技股份有限公司 音乐合成方法和***

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6411228B1 (en) 2000-09-21 2002-06-25 International Business Machines Corporation Apparatus and method for compressing pseudo-random data using distribution approximations
US7539615B2 (en) * 2000-12-29 2009-05-26 Nokia Siemens Networks Oy Audio signal quality enhancement in a digital network
JP3887598B2 (ja) * 2002-11-14 2007-02-28 松下電器産業株式会社 確率的符号帳の音源の符号化方法及び復号化方法
KR101403340B1 (ko) * 2007-08-02 2014-06-09 삼성전자주식회사 변환 부호화 방법 및 장치

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5261027A (en) * 1989-06-28 1993-11-09 Fujitsu Limited Code excited linear prediction speech coding system
US5091945A (en) * 1989-09-28 1992-02-25 At&T Bell Laboratories Source dependent channel coding with error protection
US5448683A (en) * 1991-06-24 1995-09-05 Kokusai Electric Co., Ltd. Speech encoder
US5432883A (en) * 1992-04-24 1995-07-11 Olympus Optical Co., Ltd. Voice coding apparatus with synthesized speech LPC code book
FI95085C (fi) * 1992-05-11 1995-12-11 Nokia Mobile Phones Ltd Menetelmä puhesignaalin digitaaliseksi koodaamiseksi sekä puhekooderi menetelmän suorittamiseksi
US5457783A (en) * 1992-08-07 1995-10-10 Pacific Communication Sciences, Inc. Adaptive speech coder having code excited linear prediction
JP3343965B2 (ja) * 1992-10-31 2002-11-11 ソニー株式会社 音声符号化方法及び復号化方法
FR2700632B1 (fr) * 1993-01-21 1995-03-24 France Telecom Système de codage-décodage prédictif d'un signal numérique de parole par transformée adaptative à codes imbriqués.
EP0654909A4 (en) * 1993-06-10 1997-09-10 Oki Electric Ind Co Ltd PREDICTIVE LINEAR ENCODER-ENCODER WITH CODES EXCITATION.
JPH09505161A (ja) * 1993-08-26 1997-05-20 ザ リージェンツ オブ ザ ユニバーシティ オブ カリフォルニア Cnnバイオニックアイあるいはその他のトポグラフィック感覚器官またはそれらの組み合わせ
KR960009530B1 (en) * 1993-12-20 1996-07-20 Korea Electronics Telecomm Method for shortening processing time in pitch checking method for vocoder
FI98163C (fi) * 1994-02-08 1997-04-25 Nokia Mobile Phones Ltd Koodausjärjestelmä parametriseen puheenkoodaukseen
US5602961A (en) * 1994-05-31 1997-02-11 Alaris, Inc. Method and apparatus for speech compression using multi-mode code excited linear predictive coding
JP3183074B2 (ja) * 1994-06-14 2001-07-03 松下電器産業株式会社 音声符号化装置
JPH08272395A (ja) * 1995-03-31 1996-10-18 Nec Corp 音声符号化装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107871492A (zh) * 2016-12-26 2018-04-03 珠海市杰理科技股份有限公司 音乐合成方法和***

Also Published As

Publication number Publication date
JPH10111700A (ja) 1998-04-28
US5943644A (en) 1999-08-24

Similar Documents

Publication Publication Date Title
JP5343098B2 (ja) スーパーフレーム構造のlpcハーモニックボコーダ
JP4132109B2 (ja) 音声信号の再生方法及び装置、並びに音声復号化方法及び装置、並びに音声合成方法及び装置
JP3747492B2 (ja) 音声信号の再生方法及び再生装置
TWI576832B (zh) 產生帶寬延伸訊號的裝置與方法
CA2430111C (en) Speech parameter coding and decoding methods, coder and decoder, and programs, and speech coding and decoding methods, coder and decoder, and programs
JPH11249699A (ja) 音声パラメータの合同量子化
JP3344962B2 (ja) オーディオ信号符号化装置、及びオーディオ信号復号化装置
US6768978B2 (en) Speech coding/decoding method and apparatus
JP2001507822A (ja) スピーチ信号のエンコード方法
JP3878254B2 (ja) 音声圧縮符号化方法および音声圧縮符号化装置
JP2000132193A (ja) 信号符号化装置及び方法、並びに信号復号装置及び方法
JPH11504733A (ja) 聴覚モデルによる量子化を伴う予測残余信号の変形符号化による多段音声符号器
JP3916934B2 (ja) 音響パラメータ符号化、復号化方法、装置及びプログラム、音響信号符号化、復号化方法、装置及びプログラム、音響信号送信装置、音響信号受信装置
JP3050978B2 (ja) 音声符号化方法
JP2796408B2 (ja) 音声情報圧縮装置
KR0155798B1 (ko) 음성신호 부호화 및 복호화 방법
JP4327420B2 (ja) オーディオ信号符号化方法、及びオーディオ信号復号化方法
JP2002073097A (ja) Celp型音声符号化装置とcelp型音声復号化装置及び音声符号化方法と音声復号化方法
JP3010655B2 (ja) 圧縮符号化装置及び方法、並びに復号装置及び方法
JP3715417B2 (ja) 音声圧縮符号化装置,音声圧縮符号化方法およびその方法の各工程をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
JPH0786952A (ja) 音声の予測符号化方法
JPH11133999A (ja) 音声符号化・復号化装置
JP3063087B2 (ja) 音声符号化復号化装置及び音声符号化装置ならびに音声復号化装置
JPH11352999A (ja) 音声圧縮符号化装置
JPH10124093A (ja) 音声圧縮符号化方法および装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040419

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040615

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061102

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101110

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111110

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111110

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121110

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees