JP3522012B2 - コード励振線形予測符号化装置 - Google Patents

コード励振線形予測符号化装置

Info

Publication number
JP3522012B2
JP3522012B2 JP21451795A JP21451795A JP3522012B2 JP 3522012 B2 JP3522012 B2 JP 3522012B2 JP 21451795 A JP21451795 A JP 21451795A JP 21451795 A JP21451795 A JP 21451795A JP 3522012 B2 JP3522012 B2 JP 3522012B2
Authority
JP
Japan
Prior art keywords
coefficient
vocal tract
signal
prediction coefficient
tract prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP21451795A
Other languages
English (en)
Other versions
JPH0962299A (ja
Inventor
克俊 伊東
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP21451795A priority Critical patent/JP3522012B2/ja
Priority to EP96113499A priority patent/EP0762386A3/en
Priority to US08/701,480 priority patent/US5915234A/en
Priority to CN96111485A priority patent/CN1152164A/zh
Publication of JPH0962299A publication Critical patent/JPH0962299A/ja
Application granted granted Critical
Publication of JP3522012B2 publication Critical patent/JP3522012B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/09Long term prediction, i.e. removing periodical redundancies, e.g. by using adaptive codebook or pitch predictor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明はコード励振線形予測
符号化(CELP)装置に関し、特に非音声信号区間に
おける音響信号の影響を考慮したことに関するものであ
る。
【0002】
【従来の技術】音声の符号化・復号化を行うにあたり、
音声区間とそれ以外の無音・雑音区間は同等に処理され
ていた。音声の符号化方法としては、例えば、下記の文
献に開示されている。
【0003】文献:Proc.IEEE ICASS
P、1990年、ページ461〜464、『VECTO
R SUM EXCITED LINEAR PRED
ICTION(VSELP)SPEECH CODIN
G AT 8kbps』、Gerson and Ja
siuk。
【0004】この文献では、現在北米デジタルセルラ用
音声符号化方式の標準として定められているVSELP
方式について述べられている。日本のデジタルセルラ用
音声符号化方式にも同様な方式が採用されている。
【0005】
【発明が解決しようとする課題】しかしながら、CEL
P系符号化器の構成は、音声区間の符号化特性を重視し
たものであり、雑音を符号化・復号化した場合、合成音
は不自然な音となり、耳障りとなっていた。
【0006】CELP系の符号化器で符号化され、そし
て復号化された合成音の雑音区間は励振源に用いる符号
帳が音声に最適化されていること、LPC分析(線形予
測分析)から得られるスペクトル推定誤差がフレーム毎
に異なるなどから符号化前の雑音からかけ離れた不自然
な音になり、通話品質を劣化させる原因となっていた。
【0007】以上のようなことから、特に非音声信号区
間における音響信号(雑音や回転音や振動音など)の符
号化出力に与える影響を低減し、良好な音声再生を行い
得るコード励振線形予測符号化装置の提供が要請されて
いる。
【0008】
【課題を解決するための手段】そこで、請求項1の発明
のコード励振線形予測符号化装置は、入力音響信号から
自己相関の情報(例えば、自己相関マトリクス又は自己
相関係数など)を求める『自己相関分析手段』と、上記
自己相関分析手段の分析結果から声道予測係数を求める
『声道予測係数分析手段』と、上記声道予測係数から予
測利得係数を求める『予測利得係数分析手段』と、上記
入力音響信号と上記声道予測係数と上記予測利得係数と
から入力音響信号の非音声信号区間を検出し、この非音
声信号区間における上記自己相関の情報を、この非音声
信号区間における上記自己相関の情報と過去の非音声信
号区間における上記自己相関の情報との重み付け合成値
に変更調節する『自己相関調節手段』と、上記調節後の
自己相関の情報から非音声信号区間における声道予測係
数を補償した補償後声道予測係数を得る『声道予測係数
補償手段』と、上記補償後声道予測係数と適応励振信号
とを使用して入力音響信号をコード励振線形予測符号化
する『符号化手段』とを備えて、上述の課題を解決する
ものである。
【0009】尚、上記声道予測係数分析手段の声道予測
係数は、例えば、LPC(線形分析コーディング)で求
めることができる。上記予測利得係数は、例えば、声道
の反射係数として求めることもできる。上記自己相関調
節手段によって、例えば、過去に雑音と判定された区間
の自己相関の情報と現フレームの自己相関の情報との組
み合わせによって雑音を低減するように調節された自己
相関の情報を得ることができる。
【0010】この調節された自己相関の情報から非音声
信号区間における声道予測係数を求めることで、非音声
信号区間の音響信号(例えば、雑音)に対する補償を行
った補償後の声道予測係数を得る。この補償後声道予測
係数を適応符号帳の適応励振信号などを使用して入力音
響信号をコード励振線形予測符号化することで、従来に
比べ特に非音声信号区間における符号化出力を雑音低減
に適したものにすることができる。
【0011】また、請求項2の発明のコード励振線形予
測符号化装置は、入力音響信号から自己相関の情報を求
める『自己相関分析手段』と、上記自己相関分析手段の
分析結果から声道予測係数を求める『声道予測係数分析
手段』と、上記声道予測係数から予測利得係数を求める
『予測利得係数分析手段』と、上記声道予測係数からL
SP(線スペクトル対)係数を求めると共に、上記入力
音響信号と上記声道予測係数と上記予測利得係数とから
入力音響信号の非音声信号区間を検出し、この非音声信
号区間における上記LSP係数を、この非音声信号区間
における上記LSP係数と過去の非音声信号区間におけ
る上記LSP係数との重み付け合成値に変更調節する
『LSP係数調節手段』と、上記調節後のLSP係数か
ら非音声信号区間における声道予測係数を補償した補償
後声道予測係数を得る『声道予測係数補償手段』と、上
記補償後声道予測係数と適応励振信号とを使用して入力
音響信号をコード励振線形予測符号化する『符号化手
段』とを備えて、上述の課題を解決するものである。
【0012】尚、非音声信号区間の音響信号の影響を低
減するために、声道予測係数からLSP係数に変換し
て、このLSP係数の段階で過去のフレームのLSP係
数も参考にしてLSP係数を調節することで、音声信号
区間におけるスペクトル変動に対してスペクトル変動を
抑えたLSP係数を得やすくし、最後にLSP係数から
声道予測係数に変換して、適応符号帳の適応励振信号な
どを使用して入力音響信号をコード励振線形予測符号化
することで、従来に比べ特に非音声信号区間における符
号化出力を雑音低減に適したものにすることができるの
である。
【0013】更に、請求項3の発明のコード励振線形予
測符号化装置は、入力音響信号から自己相関マトリクス
又は自己相関係数を求める『自己相関分析手段』と、上
記自己相関分析手段の分析結果から声道予測係数を求め
る『声道予測係数分析手段』と、上記声道予測係数から
予測利得係数を求める『予測利得係数分析手段』と、上
記入力音響信号と上記予測利得係数と上記声道予測係数
とから非音声信号区間を検出し、この非音声信号区間に
おける上記声道予測係数を、この非音声信号区間におけ
る上記声道予測係数と過去の非音声信号区間における上
記声道予測係数との重み付け合成値に変更調節して、調
節後の声道予測係数を得る『声道係数調節手段』と、上
記調節後の声道予測係数と適応励振信号とを使用して入
力音響信号をコード励振線形予測符号化する『符号化手
段』とを備えて、上述の課題を解決するものである。
【0014】このような構成で、非音声信号区間におけ
る上記声道予測係数を過去の非音声信号区間における声
道予測係数を用いて直接求めるもので、非常に少ない演
算量で非音声信号区間の音響信号の影響を低減するよう
に符号化することができる。
【0015】更にまた、請求項4の発明のコード励振線
形予測符号化装置は、入力音響信号から自己相関の情報
を求める『自己相関分析手段』と、上記自己相関分析手
段の分析結果から声道予測係数を求める『声道予測係数
分析手段』と、上記声道予測係数から予測利得係数を求
める『予測利得係数分析手段』と、上記入力音響信号か
ら帯域通過処理して得た帯域通過処理信号と、上記予測
利得係数とから、各帯域通過処理信号毎に非音声信号区
間を検出し、この各帯域通過処理信号毎の非音声信号区
の検出結果に応じてノイズ除去のためのフィルタ係数
を生成し、上記入力音響信号に対して生成された上記フ
ィルタ係数を使用してノイズ除去を行って合成音声信号
の生成のためのターゲット信号を生成する『ノイズ除去
手段』と、上記声道予測係数を使用して上記合成音声信
号を生成する『合成音声生成手段』と、上記声道予測係
数と上記ターゲット信号とを使用して入力音響信号をコ
ード励振線形予測符号化する『符号化手段』とを備え
て、上述の課題を解決するものである。
【0016】尚、上記ノイズ除去手段は、入力音響信号
から非音声信号区間のノイズを除去するためにフィルタ
で構成していて、このフィルタのフィルタ係数を声道予
測係数や、予測利得係数や、帯域通過処理信号を使用し
て求めることで、ノイズを除去したターゲット信号を得
ることができる。従って、このノイズ除去後のターゲッ
ト信号を使用し、コード励振線形予測符号化すること
で、非音声信号区間のノイズの影響を除去した符号化出
力を得ることができるのである。
【0017】
【発明の実施の形態】次に本発明の好適な実施の形態を
図面を用いて説明する。本発明の実施の形態において
は、先ず(1)、フレーム音声・雑音判定をもとに合成
フィルタ係数の調節を自己相関マトリクス、又はLSP
係数、又は直接予測係数を用いて行い、雑音区間におい
ての不自然な異音を削減するように構成する。
【0018】(2)更に、サブフレーム音声・雑音判定
をもとに、最適符号ベクトル選定のためのターゲット信
号をフィルタ処理して雑音を低減するように構成するも
のである。
【0019】『第1の実施の形態』: (A)具体的には、雑音区間異音抑圧型CELP系音声
符号器において、入力信号をフレーム単位に音声・雑音
に分別し、現雑音区間フレームの自己相関マトリクスと
連続した前雑音区間フレームの自己相関マトリクスとの
組み合わせによって新しい自己相関マトリクスを計算
し、新しい自己相関マトリクスを用いてLPC分析を行
い、合成フィルタ係数を求めて量子化して復号器に送信
し、上記合成フィルタ係数を用いて最適符号帳ベクトル
の検索を行う構成とする。
【0020】次に上述の(A)の構成を実現する詳細な
構成を説明する。図1はCELP符号化装置の機能構成
図である。この図1において、CELP符号化装置は、
フレームパワー計算部101と、自己相関マトリクス計
算部102と、LPC分析部103と、合成フィルタ1
04と、適応符号帳105と、雑音符号帳106と、利
得符号帳107と、重み付け距離計算部108と、LS
P量子化器109と、音声・雑音判定部110と、自己
相関マトリクス調節部111と、予測利得計算部112
と、乗算器113、114と、加算器115と、減算器
116と、量子化器117と、多重化部130とから構
成されている。
【0021】この図1の構成で特徴的な部分は、特に自
己相関マトリクス計算部102と、音声・雑音判定部1
10と、自己相関マトリクス調節部111と、LPC分
析部103とによる声道係数を修正し、従来音声区間以
外の雑音部分のCELP符号化によって耳障りな音を再
生していた原因を解消するところである。
【0022】『フレームパワー計算部101』は、フレ
ーム単位にまとめられてベクトルとして入力される原信
号ベクトルとして入力音声デジタル信号(音声ベクトル
信号)Sを与えられると、フレームパワーを求めてフレ
ームパワー信号Pとして多重化部130に与える。『自
己相関マトリクス計算部102』は、上記フレーム単位
の入力音声デジタル信号Sを与えられると、声道係数を
求めるための自己相関マトリクスRを求めてLPC分析
部103と、自己相関マトリクス調節部111とに与え
る。
【0023】『LPC分析部103』は、自己相関マト
リクスRから声道予測係数aを求めて予測利得計算部1
12に与えると共に、自己相関マトリクス調節部111
からの自己相関マトリクスRaが与えられると、上記自
己相関マトリクスRaによって上記声道予測係数aを修
正した最適な声道予測係数aaを求めて合成フィルタ1
04とLSP量子化器109とに与える。
【0024】『予測利得計算部112』は、上記声道予
測係数aから反射係数に変換され、この反射係数から予
測利得を求め、これを予測利得信号pgとして音声・雑
音判定部110に与える。この『音声・雑音判定部11
0』は、適応符号帳105からピッチ係数信号ptch
を与えられると共に、更に、フレーム単位の上記入力音
声デジタル信号Sと、上記声道予測係数aと、上記予測
利得信号pgとから、フレームの信号Sが音声信号であ
るか、それとも音声信号以外の雑音信号に当たるか否か
を判定して、音声/雑音判定信号vを自己相関マトリク
ス調節部111に与える。
【0025】『自己相関マトリクス調節部111』は、
特に重要な機能部であって、雑音と判定したときにだけ
行われる処理で、上記自己相関マトリクスRと、上記音
声/雑音判定信号vと、上記声道予測係数aとを与えら
れると、『過去に雑音と判定された区間の自己相関マト
リクス』と、『現雑音フレームの自己相関マトリクス』
との組み合わせによって、新しい自己相関マトリクスR
aを求めてLPC分析部103に与える。
【0026】『適応符号帳105』は、周期性のある適
応励振ベクトルを予め複数内部に備えているものであっ
て、これらの適応励振ベクトルにはぞれぞれインデック
ス番号Ipが付与されていて、重み付け距離計算部10
8から指定される最適インデックス番号Ipによって適
応励振ベクトル信号eaを出力し、乗算器113に与え
ると共にピッチ信号ptch(入力音声信号Sと最適適
応励振ベクトル信号eaとの正規化相互相関の信号)を
出力して、音声・雑音判定部110に与える。また、こ
の適応符号帳105内部の適応励振ベクトル信号は加算
器115からの出力励振ベクトル信号exからの最適励
振ベクトル信号exOPによって更新される。
【0027】『雑音符号帳106』は、雑音性の励振ベ
クトル信号を予め複数内部に備えているものであって、
これらの雑音性励振ベクトル信号にはぞれぞれインデッ
クス番号Isが付与されていて、重み付け距離計算部1
08から指定される最適インデックス番号Isによって
雑音性励振ベクトル信号esを出力し、乗算器114に
与える。
【0028】『利得符号帳107』は、上記適応励振ベ
クトル信号と雑音性励振ベクトルとに対する利得コード
(利得:ゲイン)を予め格納していて、これらの利得コ
ードにはインデックス番号Igがそれぞれ付与されてい
て、重み付け距離計算部108から指定される最適イン
デックス番号Igによって,適応励振ベクトル信号に対
しては利得コード信号gaを出力して乗算器113に与
え、雑音性励振ベクトル信号に対しては利得コード信号
gsを出力して乗算器114に与える。
【0029】『適応符号帳105側の乗算器113』
は、上記適応励振ベクトル信号eaと、利得コード信号
gaとの乗算を行って最適な利得(大きさ)の適応励振
ベクトル信号にして加算器115に与える。『雑音符号
帳106側の乗算器114』は、雑音励振ベクトル信号
esと、利得コード信号gsとの乗算を行って最適な利
得(大きさ)の雑音性励振ベクトル信号にして加算器1
15に与える。『加算器115』は上記最適な利得にさ
れた適応励振ベクトル信号と、上記最適な利得にされた
雑音性励振ベクトル信号との加算を行って、励振ベクト
ル信号exを合成フィルタ104に与えると共に、重み
付け距離計算部108で計算される2乗和Eが最小とな
る関係の最適な励振ベクトル信号exOPを適応符号帳
105にフィードバックさせて更新して格納させる。
【0030】『合成フィルタ104』は、IIR(In
finite Impulse Response:巡
回)型デジタルフィルタ回路で構成することができ、上
記修正後の最適な声道予測係数aaと加算器115から
の励振ベクトル(励振信号)exとから合成音声ベクト
ル信号Sw(合成音声信号)を生成して減算器116に
与える。即ち、IIR型デジタルフィルタに対して上記
修正後の最適な声道予測係数aaのフィルタ(タップ)
係数として、励振ベクトル信号exをフィルタ処理して
合成音声ベクトル信号Swを得る。減算器116は、入
力音声デジタル信号Sと、合成音声ベクトル信号Swと
の減算を行い、この減算結果を誤差ベクトル信号eとし
て重み付け距離計算部108に与える。
【0031】『重み付け距離計算部108』は、減算器
116からの誤差ベクトル信号eを与えられると、この
誤差ベクトル信号eを周波数変換して重み付けを行う。
重み付け後のベクトル信号の二乗和を求めて、この二乗
和によって得られたベクトル信号Eが最小となるように
最適な適応励振ベクトル信号、雑音励振ベクトル信号、
利得コード信号に当たる最適インデック番号Ia、I
s、Igを求めて、適応符号帳105と、雑音符号帳1
06と、利得符号帳107とに与える。
【0032】『利得コード用の量子化器117』は、利
得コード信号ga、gsとを量子化して、利得コード量
子化信号として多重化部130に与える。『LSP量子
化器109』は、雑音除去処理によって最適に修正され
た声道予測係数aaをLSP量子化して声道予測係数量
子化信号<aa>を多重化部130に与える。
【0033】『多重化部130』は、上述のフレームパ
ワー信号Pと、利得コード量子化信号と、声道予測係数
量子化信号<aa>と、適応励振ベクトル選択用のイン
デックス番号Ipと、利得コード選択用のインデックス
番号Igと、雑音性励振ベクトル選択用のインデックス
番号Isとを多重化して、この多重化によって得られる
多重化データをCELP符号化装置の符号化データとし
て出力するものである。
【0034】(動作): 入力端子100に与えられ
た入力音声デジタル信号Sは、フレームパワー計算部1
01でフレーム単位でのパワーが求められ、フレームパ
ワー信号Pとして多重化部130に与えられる。同時に
上記音声デジタル信号Sは自己相関マトリクス部102
に与えられて、自己相関マトリクスRが求められて、こ
の自己相関マトリクスRは更に、自己相関マトリクス調
節部111に与えられる。更に、上記入力音声ベクトル
信号Sは音声・雑音判定部110にも与えられ、ここで
入力音声デジタル信号Sが音声であるか、それとも音声
以外の雑音であるかを判定するのでるが、この判定には
他のビッチ信号や、声道予測係数aや、予想利得信号p
gなども使用して判定される。
【0035】自己相関マトリクス計算部102で求めら
れた自己相関マトリクスRから、LPC分析部103で
声道予測係数aが求められ、この声道予測係数aから予
測利得計算部112で予測利得信号pgが求められて、
声道予測係数aと共に音声・雑音判定部110に与えら
れる。適応符号帳105から与えられるピッチ信号pt
ch、声道予測係数a、予測利得信号pg、入力デジタ
ル信号Sを使用して音声・雑音判定部110で、入力音
声デジタル信号Sが音声信号に当たるか雑音に当たるか
否かが判定され、音声/雑音判定信号vが自己相関マト
リクス調節部111に与えられ自己相関マトリクス調節
部111に与えられる。
【0036】自己相関マトリクスRと、声道予測係数a
と、音声/雑音判定信号vとから、自己相関マトリクス
調節部111で、過去に雑音と判定された区間の自己相
関マトリクスと現フレームの自己相関マトリクスとの組
み合わせによって、新しい自己相関マトリクスRaが求
められる。これによって耳障りの原因となっていた雑音
部分に対する自己相関マトリクスが最適に修正されるこ
とになる。
【0037】新しい自己相関マトリクスRaは、LPC
分析部103に与えられ、ここで新しい最適な声道予測
係数aaが求められ、合成フィルタ104に与えられ
る。新しい最適な声道予測係数aaをIIR型デジタル
フィルタに対するフィルタ係数として与え、合成フィル
タ104で励振ベクトル信号exに対するフィルタ処理
がなされ、合成音声ベクトル信号Swが得られる。
【0038】この合成音声ベクトル信号Swは、入力音
声デジタル信号Sとの差が減算器で求められ、この差信
号が誤差ベクトル信号eとして重み付け距離計算部10
8に与えられる。この誤差ベクトル信号eは、重み付け
距離計算部108で、周波数変換され、更に重み付けさ
れて、二乗和ベクトル信号Eが最小となるような最適な
適応励振ベクトル信号、雑音励振ベクトル信号、利得コ
ード信号に当たる最適インデック番号Ia、Is、Ig
が求められる。これらの最適インデック番号Ia、I
s、Igは多重化部130に与えられると共に、最適励
振ベクトルea、esと利得コード信号ga、gsとを
得るために適応符号帳105と、雑音符号帳106と、
利得符号帳107とに与えられる。
【0039】上記最適インデック番号Iaで読み出され
た適応励振ベクトル信号eaは、インデックス番号Ig
で読み出された利得コード信号gaで乗算されて加算器
115に与えられると共に、上記インデックス番号Is
で読み出された雑音性励振ベクトル信号esも、上記イ
ンデックス番号Igで読み出された利得コード信号gs
で乗算されて加算器115に与えられる。乗算された2
つの信号は、加算器115で加算されて励振ベクトル信
号exが合成フィルタ104に与えられ、ここで合成音
声ベクトル信号Swを得る。
【0040】このようにして、合成音声ベクトル信号S
wと入力音声デジタル信号Sとの誤差がなくなるまで、
適応符号帳105と、雑音符号帳106と、利得符号帳
107とを使用した合成音声ベクトル信号Swの生成が
行われ、また、音声以外の区間においては、声道予測係
数aaが最適に修正されて、合成音声ベクトル信号Sw
が生成される。
【0041】以上のような動作によって得られるフレー
ムパワー信号Pと、利得コード量子化信号と、声道予測
係数量子化信号<aa>と、適応励振ベクトル選択用の
インデックス番号Ipと、利得コード選択用のインデッ
クス番号Igと、雑音性励振ベクトル選択用のインデッ
クス番号Isとは時事刻々多重化されて符号化データと
して出力される。
【0042】(音声・雑音判定部110の詳細):
音声・雑音判定部110は、『フレームパターン、分析
パラメータなどを用いて雑音区間の検出を行う』。そこ
で先ず、(1)分析パラメータを反射係数r[i](i
=1、…、Np、Np=フィルタ次数)に変換する。
尚、ここで、r[i]は、 −1.0<r[i]<1.0 とする。
【0043】また、(2)反射係数r[i]を用いて予
測ゲインRSは、 RS=Π(1.0−r[i]) …(1) で表すことができる。尚ここで、i=1〜Npである。
【0044】反射係数r[0]は、分析フレーム信号の
スペクトルの傾きを示すものであり、|r[0]|が0
に近いほど、スペクトルが平らであると言える。通常、
雑音スペクトルは、音声スペクトルに比べて傾きが少な
い。また、予測ゲインRSは有音区間では0に近い値に
なり、無声・雑音区間では1.0に近い値となる。
【0045】また、CELP符号化装置が適応される携
帯電話装置などの用途においては、音声発生源である人
の口と、信号入力部であるマイクロフォンとの距離が近
いため、フレームパワーは、音声区間では大きく、無音
(雑音区間)では小さくなる。
【0046】そこで、音声・雑音の判定には、 D=Pow・|r[0]|/RS …(2) を求めて、この値に対してDth(閾値)で判断し、D
>Dthならば音声と判定し、D<Dthならば雑音と
判定することができる。
【0047】(自己相関マトリクス調節部111の詳
細): 次に、上述の自己相関マトリクス調節部11
1における、自己相関マトリクスRの調節は、過去のい
くつかのmフレーム連続で雑音と判定されたときに行
う。現フレームの自己相関マトリクスをR[0]、nフ
レーム前の雑音区間自己相関マトリクスをR[n]とし
たときに、調節後の雑音区間の自己相関マトリクスRa
djは、 Radj=Σ(Wi・R[i]) …(3) i=0〜m−1、ΣWi=1.0、Wi≧Wi+1≧0 で表すことができる。
【0048】自己相関マトリクス調節部111は、この
ような計算に対応する処理を行うものである。この処理
によって得た自己相関マトリクスRadjをLPC分析
部103に与えるものである。
【0049】(第1の実施の形態の効果): 以上の
第1の実施形態によれば、音声以外の入力信号をCEL
P系の符号化装置で符号化した場合、入力信号をフレー
ム単位に分けて、声道分析(スペクトル分析)する影響
を受け、分析結果が実際のものとは異なってしまう。ま
た、分析結果の異なり度合いはフレーム毎に変動するた
めに符号化・復号化後の信号は原音声のスペクトルと異
なるばかりでなく、耳障りな音となってしまう。スペク
トル推定を行うための自己相関マトリクスを過去の雑音
フレームのものと組み合わせることによってフレーム間
の分析結果の異なり度合いを抑え、耳障りな合成音の発
生を防ぐことが可能となる。また、人間の聴覚上、定常
なノイズ区間よりも変動部分のノイズに敏感なため雑音
フレーム間のスペクトル変動を抑えることができる。
【0050】『第2の実施の形態』: (B)更に、上述の(A)の構成において、雑音区間合
成フィルタ係数をLSP(線スペクトル対:Line
Spectrum Pair)係数に変換し、合成フィ
ルタのスペクトル特性を求め、合成フィルタスプクトル
特性と過去の雑音区間合成フィルタスペクトル特性とを
照合することによってスペクトル変動を抑えた新しいL
SP係数を求め、新しいLSP係数を合成フィルタ係数
に変換した後に量子化して復号器に送信し、合成フィル
タ係数を用いて最適符号帳ベクトルの検索を行うように
構成するものである。
【0051】次に上述の(B)の構成を実現する詳細な
構成を説明する。図2はCELP符号化装置の機能構成
図である。この図2において、上述の図1と異なる構成
は、特に点線で囲んでいる部分である。即ち、『この点
線で囲まれた部分には』、自己相関マトリクス計算部1
02と、LPC分析部103Aと、音声・雑音判定部1
10Aと、予測利得計算部112と、声道係数/LSP
変換部119と、LSP/声道係数変換部120と、L
SP係数調節部121とを備えている。
【0052】上記点線で囲まれた部分以外は、おおよそ
同じ構成であり、同様な動作を行うので、『上記点線で
囲まれた部分を中心として、声道係数を修正し、従来音
声期間以外の時間の雑音部分のCELP符号化によって
耳障りな音を再生していた原因を解消することを述べ
る』。
【0053】そこで、『声道係数/LSP変換部11
9』は、声道予測係数aからLSP係数lに変換してL
SP係数調節部121に与える。『LSP係数調節部1
21』は、音声・雑音判定部110からの音声/雑音判
定信号vと、声道係数/LSP変換部119からのLS
P係数lとからLSP係数lの調節を行い、雑音の影響
の低減を行って、調節されたLSP係数laをLSP/
声道係数変換部120に与える。
【0054】『LSP/声道係数変換部120』は、L
SP係数調節部121からの『調節されたLSP係数l
a』を最適な声道予測係数aaに変換して合成フィルタ
104へのデジタルフィルタ係数として与える。
【0055】(LSP係数調節部121の詳細):
上述のLSP係数の調節は、過去のいくつかのmフレー
ム連続で雑音と判定されたときに行う。ここで現フレー
ムLSP係数をLSP−0[i]、nフレーム前の雑音
区間LSP係数をLSP−n[i]とし、調節後のLS
P係数は、i=1、…、Np=フィルタ次数としたと
き、 LSPadj[i]=ΣW・LSP−k[i] …(4) ここで、k=0〜m−1、 ΣW=1.0、i=0〜
Np−1、W≧Wk+1≧0で表すことができる。
【0056】上記LSP係数は、コサイン領域の係数で
ある。このような計算に対応する処理を行うものであ
る。この処理によって得たLSP係数laをLSP/声
道係数変換部120に与えるものである。
【0057】(動作): 最適な声道予測係数aaを
求めるまでの動作を説明し、符号帳による最適励振ベク
トル信号exの生成については、上述の第1の実施の形
態と同様であるので説明を省略する。そこで、先ず入力
音声デジタル信号Sは自己相関マトリクス部102に与
えられて、自己相関マトリクスRが求められる。この自
己相関マトリクスRは、LPC分析部103Aに与えら
れて、声道予測係数aが求められる。この声道予測係数
aは、予測利得計算部112と、声道係数/LSP変換
部119と、音声・雑音判定部110とに与えられる。
【0058】これによって、予測利得計算部112で
は、予想利得信号pgが求められて音声・雑音判定部1
10に与えられる。声道係数/LSP変換部119では
声道予測係数aからLSP係数lが求められてLSP係
数調節部121に与えられる。一方、声道予測係数a
と、入力音声ベクトル信号Aと、ピッチ信号ptch
と、予測利得信号pgとが与えられると、音声/雑音判
定信号vとが出力されて、LSP係数調節部121に与
えられる。このLSP係数調節部121でLSP係数l
の調節を行い、雑音の影響の低減を行って、調節された
LSP係数laがLSP/声道係数変換部120に与え
られる。このLSP/声道係数変換部120でLSP係
数laが最適な声道予測係数aaに変換されて合成フィ
ルタ104に与えられるのである。
【0059】このように構成することで、雑音区間の声
道予測係数を従来に比べて最適に修正して、耳障りな音
の元となる符号化信号を生成しないようにするものであ
る。
【0060】(第2の実施の形態の効果): 以上の
第2の実施の形態によれば、スペクトルと直接関係のあ
るLSP係数を調節することによって、上述の第1の実
施の形態と同じような効果を得ることができると共に、
LPC分析を2度行う必要がないので演算量を削減する
ことが可能である。
【0061】『第3の実施の形態』: (C)更にまた、上述の(A)の構成において、雑音区
間合成フィルタ係数を過去の雑音区間合成フィルタ係数
との補間によって現雑音区間における新しい合成フィル
タ係数を直接計算し、新しい合成フィルタ係数を量子化
して復号器に送信し、新しい合成フィルタ係数を用いて
最適符号帳ベクトルの検索を行うように構成するもので
ある。
【0062】次に上述の(C)の構成を実現する詳細な
構成を説明する。図3はCELP符号化装置の機能構成
図である。この図3において、上述の図1と異なる構成
は、特に点線で囲んでいる部分である。即ち、この点線
で囲まれた部分には、自己相関マトリクス計算部102
と、LPC分析部103Aと、音声・雑音判定部110
と、予測利得計算部112と、声道係数調節部126と
を備えている。『声道係数調節部126』は、LPC分
析部103Aからの声道予測係数aと、音声・雑音判定
部110からの音声/雑音判定信号vとから声道予測係
数を、雑音の影響を低減し得るように調節して最適な声
道予測係数aaを合成フィルタ104に与えるものであ
る。つまり、声道予測係数aを過去の雑音区間の声道予
測係数と組み合わせることによって、新しい声道予測係
数aaを直接求めるものである。
【0063】具体的には、上記声道予測係数の調節は、
過去のいくつかのmフレーム連続で雑音と判定されたと
きに行う。そして、現フレーム合成フィルタ係数をa−
0[i]、nフレーム前の雑音区間合成フィルタ係数を
a−n[i]としたときに、i=1、…、Np:Np=
フィルタ次数として、調節後のフィルタ係数は、 aadj[i]=ΣW・(a−k)[i] …(5) 尚ここで、ΣW=1.0、W≧Wk+1≧0、k=
0〜m−1、i=0〜Np−1で表すことができる。
【0064】このときに、調節後の係数を用いたフィル
タの安定性を確認する必要があり、不安定と判断された
ときには調節を行わないように制御することが好まし
い。
【0065】(動作): 最適な声道予測係数aaを
求めるまでの動作を説明し、符号帳による最適励振ベク
トル信号exの生成については、上述の第1の実施の形
態と同様であるので説明を省略する。そこで、先ず入力
音声ベクトル信号Sは自己相関マトリクス部102に与
えられて、自己相関マトリクスRが求められる。この自
己相関マトリクスRは、LPC分析部103Aに与えら
れて、声道予測係数aが求められる。この声道予測係数
aは、予測利得計算部112と、声道係数調節部126
と、音声・雑音判定部110とに与えられる。
【0066】予測利得計算部112では、声道予測係数
aから予測利得係数pgが求められて音声・雑音判定部
110に与えられる。入力音声デジタル信号Sと、予測
利得係数pgと、声道予測係数aと、ピッチ信号ptc
hとが与えられた音声・雑音判定部110では、音声/
雑音区間の判定が行われて、音声/雑音判定信号vとが
求められて声道係数調節部126に与えられる。音声/
雑音判定信号vと、声道予測係数aとから声道係数調節
部126で雑音の影響を低減し得るように調節された最
適な声道予測係数aaが求められ合成フィルタ104に
与えられる。
【0067】このように構成することで、雑音区間の声
道予測係数を従来に比べて最適に修正して、耳障りな音
の元となる符号化信号を生成しないようにするものであ
る。
【0068】(第3の実施の形態の効果): 以上の
第3の実施の形態によれば、声道係数を直接過去の雑音
区間の声道係数と組み合わせることによって、上述の第
1の実施の形態と同様な効果を得ることができると共
に、フィルタ係数を直接算出処理するので演算量を削減
することができる。
【0069】『第4の実施の形態』: (D)サブフレーム毎に音声・雑音判定を行い、この判
定に基づいて雑音低減量、雑音低減法を決定し、決定さ
れた雑音低減法に従いターゲット信号ベクトルを計算し
て、ターゲット信号ベクトルを用いて最適符号帳ベクト
ルを検索するように雑音低減型CELP系音声符号化器
を構成するものである。
【0070】次に上述の(D)の構成を実現する詳細な
構成を説明する。図4はCELP符号化装置の機能構成
図である。この図4において、上述の図1と異なる構成
は、点線で囲んでいる部分である。即ち、この点線で囲
まれた部分には、音声・雑音判定部110Bと、ノイズ
低減フィルタ122と、予測利得計算部112と、フィ
ルタバンク124と、フィルタ制御部125とを備えて
いる。
【0071】『フィルタバンク124』は、バンドパス
フィルタa〜nから構成され、それぞれの通過帯域は、
異なる帯域であり、バンドパスフィルタaは入力音声デ
ジタル信号Sに対して通過帯域信号Sbp1を出力し、
…、バンドパスフィルタnは入力音声デジタル信号Sに
対して通過帯域信号SbpNを出力して音声・雑音判定
部110Bに与える。このようなフィルタバンク構成に
よって、阻止帯域の雑音を低減し、SN比が増大された
通過通帯域信号を出力し、音声・雑音判定部110Bで
の音声区間・雑音区間の判定を、通過帯域ごとに容易に
行い得るようにすることができる。
【0072】予測利得計算部112は、LPC分析部1
03Aからの声道予測係数aから予測利得係数pgを求
めて、音声・雑音判定部110Bに与える。この音声・
雑音判定部110Bは、フィルタバンク124からの通
過帯域信号Sbp1〜SbpNと、ピッチ信号ptch
と、予測利得係数pgとから、各帯域ノイズ評価関数を
計算し、各帯域ごとの音声・雑音判定信号v1〜vNを
出力してフィルタ制御部125に与える。
【0073】『フィルタ制御部125』は、音声・雑音
判定部110Bからの音声・雑音判定信号v1〜vNか
ら各帯域ごとの有声・無声・雑音判定に応じてノイズ低
減フィルタ係数の調節を行い、調節されたノイズ低減フ
ィルタ係数ncをノイズ低減フィルタ122に与える。
ノイズ低減フィルタ122は、IIR型又はFIR型の
デジタルフィルタで構成され、フィルタ制御部125か
らのノイズ低減フィルタ係数ncを設定し、このフィル
タ係数によって入力音声デジタル信号Sを最適に処理し
雑音を低減したターゲット信号tを出力して、減算器1
16に与えるものである。
【0074】(動作): ターゲット信号tを求める
までの動作を説明し、符号帳による最適励振ベクトル信
号exの生成については、上述の第1の実施の形態と同
様であるので説明を省略する。そこで、先ず入力音声デ
ジタル信号Sは自己相関マトリクス部102に与えられ
て、自己相関マトリクスRが求められる。この自己相関
マトリクスRは、LPC分析部103Aに与えられて、
声道予測係数aが求められる。この声道予測係数aは、
予測利得計算部112と合成フィルタ104とに与えら
れ、予測利得計算部112で予測利得係数pgが求めら
れて音声・雑音判定部110Bに与えられる。
【0075】一方、入力音声デジタル信号Sがフィルタ
バンク124に与えられ、ここで、各バンドパスフィル
タa〜nによって帯域通過信号Sbp1〜SbpNが出
力される。これらの帯域通過信号Sbp1〜SbpNと
ピッチ信号ptchと予測利得係数pgとは、音声・雑
音判定部110Bに与えられ、各帯域ごとの音声・雑音
判定信号v1〜vNが求められる。これらの音声・雑音
判定信号v1〜vNを用いて、フィルタ制御部125で
ノイズ低減フィルタ係数の調節が行われて、ノイズ低減
フィルタ係数ncとしてノイズ低減フィルタ122に与
えられる。
【0076】このノイズ低減フィルタ係数ncによって
ノイズ低減フィルタ122は雑音低減を最適に行い得る
ように最適にデジタルフィルタのフィルタ係数として設
定される。この設定によってノイズ低減フィルタ122
で入力音声デジタル信号Sに対するフィルタ処理が行わ
れてターゲット信号tが得られる。このターゲット信号
tと合成フィルタ104からの合成音声信号Swとの差
eが減算器116で求められて、この誤差信号eを元に
重み付け距離計算部108で最適インデックスの探索が
行われるのである。
【0077】このように構成することで、雑音区間のノ
イズを従来に比べて低減して、耳障りな音の元となる符
号化信号を生成しないようにするものである。
【0078】(第4の実施の形態の効果): 以上の
第4の実施の形態によれば、人間の聴感上、音声区間中
の背景雑音だけを聞いた場合に比べて不快感の度合いが
少ない。そこで、符号化時に音声区間を区別し、雑音区
間と音声区間とでノイズの低減方法を変えることによっ
て、音声区間で複雑な処理を行うことなく聴感上の音質
を向上することが可能である。
【0079】また、ノイズ低減をCELP符号化装置の
ターゲット信号に対してだけに行うことで、サブフレー
ム単位でのノイズ低減を行うことが可能であり、音声・
雑音判定を誤ったときの音声に与える影響を少なくする
ことができると共に、ノイズ低減に伴うスペクトル歪み
の影響を少なくすることができる。
【0080】(他の実施の形態): (1)尚、以上
の実施の形態において、更に、パルス符号帳を備えて、
パルス性励振ベクトルを波形コードベクトルとして使用
して合成音声ベクトルを生成するように構成しても好ま
しい。
【0081】(2)また、上述の図1の合成フィルタ1
04を、IIR型デジタルフィルタで構成することを述
べたが、他にFIR(Finite Impulse
Response:非巡回)型デジタルフィルタや、I
IR型とFIR型との複合型デジタルフィルタで構成す
ることも好ましい。
【0082】(3)更に、上述のCELP符号化装置に
おいて、統計符号帳を備えてCELP符号化することも
好ましい。このような統計符号帳の構成、作成方法につ
いては、例えば、文献:特開平6−130995号公報
『統計コードブック及びその作成方法』で示されている
構成、作成方法で実現することもできる。
【0083】(4)更にまた、上述の実施の形態では、
CELP符号化装置の詳細な説明を行ったが、復号化装
置の構成は、例えば、文献:特開平5−165497号
公報『コード励振線形予測符号化器及び復号化器』で示
されている構成で復号することもできる。
【0084】(5)また、上述の実施の形態ではCEL
P符号化装置への適用を示したが、他にVS(ベクトル
和)ELP符号化装置にも適用することができる。LD
(低遅延)−CELP、CS(共役構造)−CELP、
PSI(ピッチ同期雑音)−CELPにも適用し得る。
【0085】(6)更に、上述の実施の形態のCELP
符号化装置は携帯電話機などに適用して効果的であり、
こうした構成は、例えば、文献:特開平6−13099
8号公報『圧縮音声復号化装置』に示されているTDM
A送信装置、受信装置にも適用して効果的である。ま
た、本発明をVSELPによるTDMA送信機に適用す
ることも好ましい。
【0086】(7)更にまた、上述の図4のノイズ低減
フィルタ122として、IIR型、FIR型、IIR・
FIR複合型デジタルフィルタで実現する他に、カルマ
ンフィルタを適用することも好ましい。このカルマンフ
ィルタは、信号及び雑音の統計量が与えられれば適用可
能であり、信号及び雑音の統計量が時間的に変化するよ
に与えられた場合でも最適動作ができる効果がある。
【0087】
【発明の効果】以上述べた様に請求項1の発明によれ
ば、入力音響信号から自己相関の情報を求める自己相関
分析手段と、自己相関分析手段の分析結果から声道予測
係数を求める声道予測係数分析手段と、声道予測係数か
ら予測利得係数を求める予測利得係数分析手段と、入力
音響信号と声道予測係数と予測利得係数とから入力音響
信号の非音声信号区間を検出し、この非音声信号区間に
おける自己相関の情報を、この非音声信号区間における
自己相関の情報と過去の非音声信号区間における自己相
関の情報との重み付け合成値に変更調節する自己相関調
節手段と、調節後の自己相関の情報から非音声信号区間
における声道予測係数を補償した補償後声道予測係数を
得る声道予測係数補償手段と、補償後声道予測係数と適
応励振信号とを使用して入力音響信号をコード励振線形
予測符号化する符号化手段とを備えたことで、非音声信
号区間の音響信号の自己相関の情報を調節し、非音声信
号区間の音響信号の影響を低減することができる。
【0088】また、請求項2の発明によれば、入力音響
信号から自己相関の情報を求める自己相関分析手段と、
自己相関分析手段の分析結果から声道予測係数を求める
声道予測係数分析手段と、声道予測係数から予測利得係
数を求める予測利得係数分析手段と、声道予測係数から
LSP係数を求めると共に、入力音響信号と声道予測係
数と予測利得係数とから入力音響信号の非音声信号区間
を検出し、この非音声信号区間におけるLSP係数を
この非音声信号区間におけるLSP係数と過去の非音声
信号区間におけるLSP係数との重み付け合成値に変更
調節するLSP係数調節手段と、調節後のLSP係数か
ら非音声信号区間における声道予測係数を補償した補償
後声道予測係数を得る声道予測係数補償手段と、補償後
声道予測係数と適応励振信号とを使用して入力音響信号
をコード励振線形予測符号化する符号化手段とを備えた
ことで、LSP係数の段階で非音声信号区間におけるス
ペクトル変動の抑圧を行うので非音声信号区間の音響信
号の影響を低減することができる。
【0089】更に、請求項3の発明によれば、入力音響
信号から自己相関の情報を求める自己相関分析手段と、
自己相関分析手段の分析結果から声道予測係数を求める
声道予測係数分析手段と、声道予測係数から予測利得係
数を求める予測利得係数分析手段と、入力音響信号と予
測利得係数と声道予測係数とから非音声信号区間を検出
し、この非音声信号区間における声道予測係数を、この
非音声信号区間における声道予測係数と過去の非音声信
号区間における声道予測係数との重み付け合成値に変更
調節して、調節後の声道予測係数を得る声道係数調節手
段と、調節後の声道予測係数と適応励振信号とを使用し
て入力音響信号をコード励振線形予測符号化する符号化
手段とを備えたことで、声道予測係数から直接に非音声
信号区間の声道予測係数を調節することができるので、
演算量を非常に少なくしながら、非音声信号区間の音響
信号の符号化出力への影響を低減することができる。
【0090】更にまた、請求項4の発明によれば、入力
音響信号から自己相関の情報を求める自己相関分析手段
と、自己相関分析手段の分析結果から声道予測係数を求
める声道予測係数分析手段と、声道予測係数から予測利
得係数を求める予測利得係数分析手段と、入力音響信号
から帯域通過処理して得た帯域通過処理信号と、予測利
得係数とから、各帯域通過処理信号毎に非音声信号区間
を検出し、この各帯域通過処理信号毎の非音声信号区間
の検出結果に応じてノイズ除去のためのフィルタ係数を
生成し、入力音響信号に対して生成されたフィルタ係数
を使用してノイズ除去を行って合成音声信号の生成のた
めのターゲット信号を生成するノイズ除去手段と、声道
予測係数を使用して上記合成音声信号を生成する合成音
声生成手段と、声道予測係数とターゲット信号とを使用
して入力音響信号をコード励振線形予測符号化する符号
化手段とを備えたことで、ノイズ除去されたターゲット
信号を得ることができるので、非音声信号区間の符号化
出力にノイズの影響を与えないようにすることができ
る。
【0091】従って、非音声信号区間における音響信号
(雑音や回転音や振動音など)の符号化出力に与える影
響を低減し、良好な音声再生を行うことができるコード
励振線形予測符号化装置を実現することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態のCELP符号化装
置の機能構成図である。
【図2】本発明の第2の実施の形態のCELP符号化装
置の機能構成図である。
【図3】本発明の第3の実施の形態のCELP符号化装
置の機能構成図である。
【図4】本発明の第4の実施の形態のCELP符号化装
置の機能構成図である。
【符号の説明】
100…入力端子、101…フレームパワー計算部、1
02…自己相関マトリクス計算部、103…LPC分析
部、104…合成フィルタ、105…適応符号帳、10
6…雑音符号帳、107…利得符号帳、108…重み付
け距離計算部、109…LSP量子化器、110…音声
・雑音判定部、111…自己相関マトリクス調節部、1
12…予測利得計算部、113、114…乗算器、11
5、116…加算器、117…量子化器。
───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) G10L 11/00 G10L 19/12

Claims (4)

    (57)【特許請求の範囲】
  1. 【請求項1】 入力音響信号から自己相関マトリクスの
    情報を求める自己相関分析手段と、 上記自己相関分析手段の分析結果から声道予測係数を求
    める声道予測係数分析手段と、 上記声道予測係数から予測利得係数を求める予測利得係
    数分析手段と、 上記入力音響信号と上記声道予測係数と上記予測利得係
    数とから入力音響信号の非音声信号区間を検出し、この
    非音声信号区間における上記自己相関の情報を、この非
    音声信号区間における上記自己相関の情報と過去の非音
    声信号区間における上記自己相関の情報との重み付け合
    成値に変更調節する自己相関調節手段と、 上記調節後の自己相関の情報から非音声信号区間におけ
    る声道予測係数を補償した補償後声道予測係数を得る声
    道予測係数補償手段と、 上記補償後声道予測係数と適応励振信号とを使用して入
    力音響信号をコード励振線形予測符号化する符号化手段
    とを備えたことを特徴とするコード励振線形予測符号化
    装置。
  2. 【請求項2】 入力音響信号から自己相関の情報を求め
    る自己相関分析手段と、 上記自己相関分析手段の分析結果から声道予測係数を求
    める声道予測係数分析手段と、 上記声道予測係数から予測利得係数を求める予測利得係
    数分析手段と、 上記声道予測係数からLSP係数を求めると共に、上記
    入力音響信号と上記声道予測係数と上記予測利得係数と
    から入力音響信号の非音声信号区間を検出し、この非音
    声信号区間における上記LSP係数を、この非音声信号
    区間における上記LSP係数と過去の非音声信号区間に
    おける上記LSP係数との重み付け合成値に変更調節す
    るLSP係数調節手段と、 上記調節後のLSP係数から非音声信号区間における声
    道予測係数を補償した補償後声道予測係数を得る声道予
    測係数補償手段と、 上記補償後声道予測係数と適応励振信号とを使用して入
    力音響信号をコード励振線形予測符号化する符号化手段
    とを備えたことを特徴とするコード励振線形予測符号化
    装置。
  3. 【請求項3】 入力音響信号から自己相関の情報を求め
    る自己相関分析手段と、 上記自己相関分析手段の分析結果から声道予測係数を求
    める声道予測係数分析手段と、 上記声道予測係数から予測利得係数を求める予測利得係
    数分析手段と、 上記入力音響信号と上記予測利得係数と上記声道予測係
    数とから非音声信号区間を検出し、この非音声信号区間
    における上記声道予測係数を、この非音声信号区間にお
    ける上記声道予測係数と過去の非音声信号区間における
    上記声道予測係数との重み付け合成値に変更調節して、
    調節後の声道予測係数を得る声道係数調節手段と、 上記調節後の声道予測係数と適応励振信号とを使用して
    入力音響信号をコード励振線形予測符号化する符号化手
    段とを備えたことを特徴とするコード励振線形予測符号
    化装置。
  4. 【請求項4】 入力音響信号から自己相関の情報を求め
    る自己相関分析手段と、 上記自己相関分析手段の分析結果から声道予測係数を求
    める声道予測係数分析手段と、 上記声道予測係数から予測利得係数を求める予測利得係
    数分析手段と、 上記入力音響信号から帯域通過処理して得た帯域通過処
    理信号と、上記予測利得係数とから、各帯域通過処理信
    号毎に非音声信号区間を検出し、この各帯域通過処理信
    号毎の非音声信号区間の検出結果に応じてノイズ除去の
    ためのフィルタ係数を生成し、上記入力音響信号に対し
    生成された上記フィルタ係数を使用してノイズ除去を
    行って合成音声信号の生成のためのターゲット信号を生
    成するノイズ除去手段と、 上記声道予測係数を使用して上記合成音声信号を生成す
    る合成音声生成手段と、 上記声道予測係数と上記ターゲット信号とを使用して入
    力音響信号をコード励振線形予測符号化する符号化手段
    とを備えたことを特徴とするコード励振線形予測符号化
    装置。
JP21451795A 1995-08-23 1995-08-23 コード励振線形予測符号化装置 Expired - Fee Related JP3522012B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP21451795A JP3522012B2 (ja) 1995-08-23 1995-08-23 コード励振線形予測符号化装置
EP96113499A EP0762386A3 (en) 1995-08-23 1996-08-22 Method and apparatus for CELP coding an audio signal while distinguishing speech periods and non-speech periods
US08/701,480 US5915234A (en) 1995-08-23 1996-08-22 Method and apparatus for CELP coding an audio signal while distinguishing speech periods and non-speech periods
CN96111485A CN1152164A (zh) 1995-08-23 1996-08-23 码激励线性预测编码装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP21451795A JP3522012B2 (ja) 1995-08-23 1995-08-23 コード励振線形予測符号化装置

Publications (2)

Publication Number Publication Date
JPH0962299A JPH0962299A (ja) 1997-03-07
JP3522012B2 true JP3522012B2 (ja) 2004-04-26

Family

ID=16657039

Family Applications (1)

Application Number Title Priority Date Filing Date
JP21451795A Expired - Fee Related JP3522012B2 (ja) 1995-08-23 1995-08-23 コード励振線形予測符号化装置

Country Status (4)

Country Link
US (1) US5915234A (ja)
EP (1) EP0762386A3 (ja)
JP (1) JP3522012B2 (ja)
CN (1) CN1152164A (ja)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW408298B (en) * 1997-08-28 2000-10-11 Texas Instruments Inc Improved method for switched-predictive quantization
US6104994A (en) * 1998-01-13 2000-08-15 Conexant Systems, Inc. Method for speech coding under background noise conditions
JP2000047696A (ja) * 1998-07-29 2000-02-18 Canon Inc 情報処理方法及び装置、その記憶媒体
JP2000172283A (ja) * 1998-12-01 2000-06-23 Nec Corp 有音検出方式及び方法
CN1242379C (zh) 1999-08-23 2006-02-15 松下电器产业株式会社 音频编码装置
JP3670217B2 (ja) * 2000-09-06 2005-07-13 国立大学法人名古屋大学 雑音符号化装置、雑音復号装置、雑音符号化方法および雑音復号方法
US6947888B1 (en) * 2000-10-17 2005-09-20 Qualcomm Incorporated Method and apparatus for high performance low bit-rate coding of unvoiced speech
US6925435B1 (en) * 2000-11-27 2005-08-02 Mindspeed Technologies, Inc. Method and apparatus for improved noise reduction in a speech encoder
DE10121532A1 (de) * 2001-05-03 2002-11-07 Siemens Ag Verfahren und Vorrichtung zur automatischen Differenzierung und/oder Detektion akustischer Signale
EP1298647B1 (en) * 2001-09-28 2005-11-16 Alcatel A communication device and a method for transmitting and receiving of natural speech, comprising a speech recognition module coupled to an encoder
EP1301018A1 (en) * 2001-10-02 2003-04-09 Alcatel Apparatus and method for modifying a digital signal in the coded domain
KR20030070177A (ko) * 2002-02-21 2003-08-29 엘지전자 주식회사 원시 디지털 데이터의 잡음 필터링 방법
JP4055203B2 (ja) * 2002-09-12 2008-03-05 ソニー株式会社 データ処理装置およびデータ処理方法、記録媒体、並びにプログラム
US20050071154A1 (en) * 2003-09-30 2005-03-31 Walter Etter Method and apparatus for estimating noise in speech signals
CN101322182B (zh) * 2005-12-05 2011-11-23 高通股份有限公司 用于检测音调分量的***、方法和设备
US7831420B2 (en) * 2006-04-04 2010-11-09 Qualcomm Incorporated Voice modifier for speech processing systems
WO2007138511A1 (en) * 2006-05-30 2007-12-06 Koninklijke Philips Electronics N.V. Linear predictive coding of an audio signal
US20090012786A1 (en) * 2007-07-06 2009-01-08 Texas Instruments Incorporated Adaptive Noise Cancellation
KR101756834B1 (ko) * 2008-07-14 2017-07-12 삼성전자주식회사 오디오/스피치 신호의 부호화 및 복호화 방법 및 장치
US8725506B2 (en) * 2010-06-30 2014-05-13 Intel Corporation Speech audio processing
RU2559709C2 (ru) 2011-02-16 2015-08-10 Ниппон Телеграф Энд Телефон Корпорейшн Способ кодирования, способ декодирования, кодер, декодер, программа и носитель записи
ES2626977T3 (es) * 2013-01-29 2017-07-26 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Aparato, procedimiento y medio informático para sintetizar una señal de audio
CA2913578C (en) 2013-06-21 2018-05-22 Michael Schnabel Apparatus and method for generating an adaptive spectral shape of comfort noise
CN105378836B (zh) * 2013-07-18 2019-03-29 日本电信电话株式会社 线性预测分析装置、方法、以及记录介质
KR20150032390A (ko) * 2013-09-16 2015-03-26 삼성전자주식회사 음성 명료도 향상을 위한 음성 신호 처리 장치 및 방법
US9799349B2 (en) * 2015-04-24 2017-10-24 Cirrus Logic, Inc. Analog-to-digital converter (ADC) dynamic range enhancement for voice-activated systems
US10462063B2 (en) * 2016-01-22 2019-10-29 Samsung Electronics Co., Ltd. Method and apparatus for detecting packet
GB201617016D0 (en) 2016-09-09 2016-11-23 Continental automotive systems inc Robust noise estimation for speech enhancement in variable noise conditions
WO2018164699A1 (en) * 2017-03-10 2018-09-13 James Jordan Rosenberg System and method for relative enhancement of vocal utterances in an acoustically cluttered environment

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4230906A (en) * 1978-05-25 1980-10-28 Time And Space Processing, Inc. Speech digitizer
US4720802A (en) * 1983-07-26 1988-01-19 Lear Siegler Noise compensation arrangement
US4920568A (en) * 1985-07-16 1990-04-24 Sharp Kabushiki Kaisha Method of distinguishing voice from noise
US5307441A (en) * 1989-11-29 1994-04-26 Comsat Corporation Wear-toll quality 4.8 kbps speech codec
DE69232202T2 (de) * 1991-06-11 2002-07-25 Qualcomm Inc Vocoder mit veraendlicher bitrate
JPH0516550A (ja) * 1991-07-08 1993-01-26 Ricoh Co Ltd 感熱転写記録媒体
JP2968109B2 (ja) * 1991-12-11 1999-10-25 沖電気工業株式会社 コード励振線形予測符号化器及び復号化器
JP3050978B2 (ja) * 1991-12-18 2000-06-12 沖電気工業株式会社 音声符号化方法
US5248845A (en) * 1992-03-20 1993-09-28 E-Mu Systems, Inc. Digital sampling instrument
US5327520A (en) * 1992-06-04 1994-07-05 At&T Bell Laboratories Method of use of voice message coder/decoder
JPH06130995A (ja) * 1992-10-16 1994-05-13 Oki Electric Ind Co Ltd 統計コードブック及びその作成方法
FR2697101B1 (fr) * 1992-10-21 1994-11-25 Sextant Avionique Procédé de détection de la parole.
JPH06130998A (ja) * 1992-10-22 1994-05-13 Oki Electric Ind Co Ltd 圧縮音声復号化装置
FI96247C (fi) * 1993-02-12 1996-05-27 Nokia Telecommunications Oy Menetelmä puheen muuntamiseksi
CN1131508C (zh) * 1993-05-05 2003-12-17 皇家菲利浦电子有限公司 包括至少一个编码器的传输***
EP0654909A4 (en) * 1993-06-10 1997-09-10 Oki Electric Ind Co Ltd PREDICTIVE LINEAR ENCODER-ENCODER WITH CODES EXCITATION.
IN184794B (ja) * 1993-09-14 2000-09-30 British Telecomm
CA2136891A1 (en) * 1993-12-20 1995-06-21 Kalyan Ganesan Removal of swirl artifacts from celp based speech coders
US5615298A (en) * 1994-03-14 1997-03-25 Lucent Technologies Inc. Excitation signal synthesis during frame erasure or packet loss
US5602961A (en) * 1994-05-31 1997-02-11 Alaris, Inc. Method and apparatus for speech compression using multi-mode code excited linear predictive coding
US5692101A (en) * 1995-11-20 1997-11-25 Motorola, Inc. Speech coding method and apparatus using mean squared error modifier for selected speech coder parameters using VSELP techniques

Also Published As

Publication number Publication date
JPH0962299A (ja) 1997-03-07
EP0762386A3 (en) 1998-04-22
US5915234A (en) 1999-06-22
EP0762386A2 (en) 1997-03-12
CN1152164A (zh) 1997-06-18

Similar Documents

Publication Publication Date Title
JP3522012B2 (ja) コード励振線形予測符号化装置
JP3490685B2 (ja) 広帯域信号の符号化における適応帯域ピッチ探索のための方法および装置
JP3102015B2 (ja) 音声復号化方法
JP3653826B2 (ja) 音声復号化方法及び装置
JP4662673B2 (ja) 広帯域音声及びオーディオ信号復号器における利得平滑化
JP4213243B2 (ja) 音声符号化方法及び該方法を実施する装置
RU2262748C2 (ru) Многорежимное устройство кодирования
JP2964879B2 (ja) ポストフィルタ
JPH06202696A (ja) 音声復号化装置
EP1096476B1 (en) Speech signal decoding
US6424942B1 (en) Methods and arrangements in a telecommunications system
JP5027966B2 (ja) 入力信号をボコーディングする方法および装置およびそのためのコンピュータ読み出し可能信号を有する媒体を含む製造物品
JPH09152896A (ja) 声道予測係数符号化・復号化回路、声道予測係数符号化回路、声道予測係数復号化回路、音声符号化装置及び音声復号化装置
US6243674B1 (en) Adaptively compressing sound with multiple codebooks
JP2003504669A (ja) 符号化領域雑音制御
EP1619666B1 (en) Speech decoder, speech decoding method, program, recording medium
JP3050978B2 (ja) 音声符号化方法
JP3417362B2 (ja) 音声信号復号方法及び音声信号符号化復号方法
JPH09319397A (ja) ディジタル信号処理装置
JPH0954600A (ja) 音声符号化通信装置
JP3785363B2 (ja) 音声信号符号化装置、音声信号復号装置及び音声信号符号化方法
JP3085347B2 (ja) 音声の復号化方法およびその装置
JP3102017B2 (ja) 音声符号化方法
JP3192051B2 (ja) 音声符号化装置
JP2004053763A (ja) 多地点制御装置の音声符号化伝送システム

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040203

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090220

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090220

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100220

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110220

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees