JPH09258771A - 音声処理方法及び装置 - Google Patents

音声処理方法及び装置

Info

Publication number
JPH09258771A
JPH09258771A JP8068040A JP6804096A JPH09258771A JP H09258771 A JPH09258771 A JP H09258771A JP 8068040 A JP8068040 A JP 8068040A JP 6804096 A JP6804096 A JP 6804096A JP H09258771 A JPH09258771 A JP H09258771A
Authority
JP
Japan
Prior art keywords
quantization
value
voice
dimension
range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8068040A
Other languages
English (en)
Inventor
Hiroki Yamamoto
寛樹 山本
Yasuhiro Komori
康弘 小森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP8068040A priority Critical patent/JPH09258771A/ja
Priority to DE69715071T priority patent/DE69715071T2/de
Priority to EP97301797A priority patent/EP0798696B1/en
Priority to US08/820,255 priority patent/US5970445A/en
Publication of JPH09258771A publication Critical patent/JPH09258771A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • G10L15/142Hidden Markov Models [HMMs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Complex Calculations (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

(57)【要約】 【課題】 従来は、分布の重みに関係なく量子化値を決
定することにより、量子化による出力確率計算の誤差が
大きくなり、認識率が低下するという課題があった。 【解決手段】 音声データの量子化範囲を導出し(S6
1)、その導出された量子化範囲の分布の出力確率の積
分値を求め、この積分値を等分するように量子化値を決
定し(S62)、この量子化値から量子化コードブック
(502)を作成して記憶し、この量子化コードブック
を用いて音声認識を行う。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、音声処理方法及び
装置に関するものである。
【0002】
【従来の技術】従来は図3に示すように、コードブック
をminmax量子化範囲決定ステップS31によって
量子化範囲を決定し、その量子化範囲内で量子化値を等
分割量子化値決定ステップS32によって決定してい
た。それぞれのステップは以下のように処理される。
【0003】minmax量子化範囲決定ステップS3
1 各次元毎に、音声認識に用いるHMMのその次元の分布
全てについて、それぞれの分布の平均から標準偏差の一
定数倍を加減した値を求め、求まった値の最大値・最小
値をその次元の量子化範囲とする。
【0004】具体的には、i次元の量子化範囲[R
min.i ・Rmax.i ]を以下のようにして求める。
【0005】
【外1】
【0006】mは分布番号(m=1.2.….Mi )、
i はi次元の全分布数、μm.i はi次元のm番目の分
布の平均、σm.i はi次元のm番目の分布の分散から算
出した標準偏差である。
【0007】αは量子化範囲を決定するための系数であ
る。図4にminmax量子化範囲決定ステップのイメ
ージ図を示す。
【0008】等分割量子化値決定ステップS32 各次元毎に、量子化範囲を等分するように量子化値を決
める。
【0009】i次元の量子化範囲が[Rmin.i ・R
max.i ]で量子化ステップ数がNの時、等分割量子化値
決定ステップではj(1j<)番目の量子化値C
i.j を(3)式のように決定する。
【0010】
【外2】
【0011】図5に等分割量子化値決定ステップのイメ
ージ図を示す。
【0012】
【発明が解決しようとする課題】上記従来技術では、m
inmax量子化範囲決定ステップで量子化範囲を決め
る場合、分布の中に他の分布から大きくはずれた分布が
あると、その分布の重要度に関わらずそのはずれた分布
からの情報によって量子化範囲が広くなる。この様子を
図4に示した。この量子化範囲を等分割量子化値決定ス
テップS32に従って量子化値を決定すると、量子化範
囲に均等に量子化値が設定されるため、分布が少ないと
ころ、すなわちあまり使われない範囲に量子化値が設定
される一方で、頻繁に使われるであろう分布の多いとこ
ろでの量子化値の設定数が少なくなる(図5参照)。結
果として量子化ステップ数が少ない場合に、スカラー量
子化による入力ベクトルの近似が粗くなり、量子化によ
る出力確率計算の誤差が大きくなり認識率の低下を招く
という課題があった。
【0013】
【課題を解決するための手段】上記課題を解決する為
に、本発明は音声データの量子化範囲を導出し、前記導
出された量子化範囲の分布の出力確率の積分値を求め、
前記積分値を等分するように量子化値を決定して量子化
コードブックを作成する音声処理方法及び装置を提供す
る。
【0014】上記課題を解決する為に、本発明は好まし
くは前記作成された量子化コードブックを用いて入力音
声を認識する。
【0015】上記課題を解決する為に、本発明は好まし
くは前記音声データの量子化範囲は各次元毎に求める。
【0016】上記課題を解決する為に、本発明は好まし
くは前記音声データは隠れマルコフモデルとする。
【0017】上記課題を解決する為に、本発明は好まし
くは前記音声データの量子化範囲の導出は、音声データ
の各次元毎に、該次元の分布全てについてそれぞれの分
布の平均から標準偏差の一定数倍を加減した値を求め、
前記求めた値の最大値及び最小値を前記量子化範囲とす
る。
【0018】上記課題を解決する為に、本発明は好まし
くは前記音声データの量子化範囲の導出は、音声データ
の各次元毎に、該次元の分布の全てを一つの分布に合成
し、該合成した分布の平均から標準偏差の一定数倍を加
減した値を求め、前記求めた値の最大値及び最小値を前
記量子化範囲とする。
【0019】上記課題を解決する為に、本発明は好まし
くは前記認識の結果を表示する。
【0020】上記課題を解決する為に、本発明は好まし
くは前記認識の結果を印字する。
【0021】上記課題を解決する為に、本発明は好まし
くは前記音声データをマイクロフォンにより入力する。
【0022】上記課題を解決する為に、本発明は好まし
くは音声データの各次元毎に、該次元の分布の全てを一
つの分布に合成し、該合成した分布の平均から標準偏差
の一定数倍を加減した値を求め、前記求めた値の量子化
範囲を導出し、前記導出された量子化範囲を等分して量
子化値を決定して量子化コードブックを作成する。
【0023】上記課題を解決する為に、本発明は好まし
くは前記作成された量子化コードブックを用いて入力音
声を認識する。
【0024】
【発明の実施の形態】以下、図面を参照しながら本発明
の一実施形態を説明する。図1は本発明に係わる音声認
識装置である計算機の概略構成の一例を表すブロック図
である。図2は本発明に係わる音声認識方法のフローチ
ャートである。音声入力ステップS21で図1の音声入
力装置(300)により取り込んだ音声を、記憶装置
(500)に記憶されたプログラム5002に従って音
響分析ステップS22でCPU(400)により音響分
析処理し、記憶装置500に記憶されたプログラム50
03に従ってスカラー量子化ステップS23において分
析結果を各次元毎に記憶装置(500)に記憶された量
子化コードブック502に従ってスカラー量子化し、音
声認識ステップS24において記憶装置(500)に記
憶された量子化値に対する各HMMの各分布の出力確率
のテーブル503を参照しながら出力確率を求めて音声
認識を行い、認識結果表示ステップS24でその結果を
表示装置(200)に出力する。
【0025】ここで、表示装置200はCRTや液晶表
示器、或いはそれら表示器に認識結果の文字列を表示さ
せる為の表示制御部である。また、表示装置200に替
えて、LBPやインクジェットプリンタ等の印字装置6
00を備え、認識結果を印字するようにしても良い。音
声入力装置はマイクロフォン或いは公衆回線等を介して
音声を入力するものである。CPU400は記憶装置5
00に記憶されている制御プログラムに従って、以下詳
述する本発明に係る各処理を実行するものである。記憶
装置500は本装置内蔵のROMやRAM、或いは本体
に着脱可能なCDROMやFDであって、音声入力装置
300より入力した音声データ、制御プログラム、量子
化コードブック(502,505,507)、出力確率
テーブル(503)、HMMの情報(504)等のパラ
メータを記憶し、更にワーキングエリアも設ける。ま
た、この記憶装置500に記憶されている制御プログラ
ムやパラメータは、予め記憶装置500に記憶されたも
のであっても良いし、処理に先立って通信I/F700
を介して他装置から本装置に読み込んでも良い。尚、記
憶装置500に記憶されたデータのメモリマップ例を図
12に示す。
【0026】本発明の特徴的なスカラー量子化を行う際
に用いる量子化コードブック502の作成方法を図6に
従って説明する。
【0027】記憶装置(500)に記憶されたプログラ
ム5006に従い、記憶装置(500)に格納されたH
MMの情報を元に、CPU(400)で従来技術として
先に説明したminmax量子化範囲決定ステップによ
って量子化範囲を決定し(S61)、決定した量子化範
囲をもとに記憶装置(500)に記憶されたプログラム
5008に従い、出力確率積分値等分割量子化値決定ス
テップによってCPU(400)で量子化値を決定し
(S62)、その値を量子化コードブック502として
記憶装置(500)に記憶する。出力確率積分値等分割
量子化値決定ステップ(S62)で行うより詳細な処理
を以下に説明する。
【0028】出力確率積分値等分割量子化値決定ステッ
プ(S62) 各次元について、全ての分布の量子化範囲内の出力確率
の積分値を求め、その積分値を等分するように量子化値
を決定する。そのイメージ図を図7に示す。図7はi次
元の量子化値分布を示したものである。
【0029】i次元の量子化範囲を〔Rmin,i .R
max,i 〕とする。量子化ステップ数をN,i次元のHM
Mの総分布数をMi 、入力がxの時のi次元のm(1
i)番目の分布による出力確率をPm,i (x)と
する。この時量子化範囲内の積分値Sは図8のようにし
て細長い長方形の面積の和として近似的に求まる。
【0030】
【外3】 である。ここで、nは量子化ステップ数Nよりも十分大
きな数にしておく。このようにして近似的にSを求めた
後にi次元のk(1N)番目の量子化値Ci,k
(9)式のようになる。
【0031】
【外4】
【0032】以上で説明した、minmax量子化範囲
決定ステップおよび出力確率積分値等分割量子化値決定
ステップで作成した量子化コードブック502を用い
て、図2に示したフローチャートに従って音声認識を行
う。
【0033】第二の量子化コードブックを作成する場合
の実施形態のフローチャートを図9に示す。記憶装置
(500)に記憶されたプログラム5009に従い、記
憶装置(500)に格納されたHMMの情報506を元
に、CPU(400)でmerge量子化範囲決定ステ
ップS91によって量子化範囲を決定し、決定した量子
化範囲をもとに記憶装置(500)に記憶されたプログ
ラム5007に従い、等分割量子化値決定ステップS9
2によってCPU(400)で量子化値を決定し、その
値を量子化コードブック505として記憶装置(50
0)に記憶する。merge量子化範囲決定ステップS
92で行う処理を以下に説明する。
【0034】merge量子化範囲決定ステップS92 各次元毎に、音声認識に用いる全てのHMMのその次元
の分布全てを一つの分布に合成して、その分布の平均か
ら標準偏差の一定数倍を加減した値を量子化範囲とす
る。このイメージ図を図10に示す。
【0035】i次元の量子化範囲〔Rmin.i.max.i
をi次元の認識に用いる全てのHMMの分布を合成して
得られる分布の平均μ′i と標準偏差σ′i を用いて以
下のように決める。 Rmin.i =μ′i −α・σ′i (11) Rmax.i =μ′i −α・σ′i (12)
【0036】M個の分布の合成は式(13)で求めた。
合成された分布の平均をμ′,分散をσ′2 とする。
【0037】
【外5】
【0038】mは分布番号(m=1.2.….M)、μ
m は、m番目の分布の平均、σm はm番目の分布の分散
から算出した標準偏差である。
【0039】以上で説明した、merge量子化範囲決
定ステップS91および等分割量子化値決定ステップS
92で作成した量子化コードブックを用いて、図2に示
したフローチャートに従って音声認識を行う。
【0040】第三の量子化コードブックを作成する場合
の実施形態のフローチャートを図11に示す。記憶装置
(500)に記憶されたプログラム5009に従い、記
憶装置(500)に格納されたHMMの情報508を元
に、CPU(400)でmerge量子化範囲決定ステ
ップS111によって量子化範囲を決定し、決定した量
子化範囲をもとに記憶装置(500)に記憶されたプロ
グラム5008に従い、出力確率積分値等分割量子化値
決定ステップS112によってCPU(400)で量子
化値を決定し、その値を量子化コードブック507とし
て記憶装置(500)に記憶する。
【0041】merge量子化範囲決定ステップS11
1および出力確率積分値等分割量子化決定ステップS1
12で作成した量子化コードブックを用いて、図2に示
したフローチャートに従って音声認識を行う。
【0042】
【発明の効果】以上に説明した通り、本発明により作成
した量子化コードブックを用いることにより、量子化ス
テップ数が少ない時にも効率的なスカラー量子化が実現
され、音声認識率が向上する。
【図面の簡単な説明】
【図1】音声認識システムのブロック図。
【図2】音声認識方法のフローチャート。
【図3】従来のコードブック作成方法のフローチャー
ト。
【図4】従来のminmax量子化範囲のイメージ図。
【図5】従来の等分割量子化値のイメージ図。
【図6】第1のコードブック作成方法のフローチャー
ト。
【図7】出力確率積分値等分割量子化のイメージ図。
【図8】混合分布の出力確率のある範囲の面積を求める
方法のイメージ図。
【図9】第2のコードブック作成方法のフローチャー
ト。
【図10】merge量子化範囲のイメージ図。
【図11】第3のコードブック作成方法のフローチャー
ト。
【図12】記憶装置のメモリマップ例を示す図。

Claims (23)

    【特許請求の範囲】
  1. 【請求項1】 音声データの量子化範囲を導出し、 前記導出された量子化範囲の分布の出力確率の積分値を
    求め、 前記積分値を等分するように量子化値を決定して量子化
    コードブックを作成することを特徴とする音声処理方
    法。
  2. 【請求項2】 前記作成された量子化コードブックを用
    いて入力音声を認識することを特徴とする請求項1に記
    載の音声処理方法。
  3. 【請求項3】 前記音声データの量子化範囲は各次元毎
    に求めることを特徴とする請求項1に記載の音声処理方
    法。
  4. 【請求項4】 前記音声データは隠れマルコフモデルと
    することを特徴とする請求項1に記載の音声処理方法。
  5. 【請求項5】 前記音声データの量子化範囲の導出は、
    音声データの各次元毎に、該次元の分布全てについてそ
    れぞれの分布の平均から標準偏差の一定数倍を加減した
    値を求め、 前記求めた値の最大値及び最小値を前記量子化範囲とす
    ることを特徴とする請求項1に記載の音声処理方法。
  6. 【請求項6】 前記音声データの量子化範囲の導出は、
    音声データの各次元毎に、該次元の分布の全てを一つの
    分布に合成し、該合成した分布の平均から標準偏差の一
    定数倍を加減した値を求め、 前記求めた値の最大値及び最小値を前記量子化範囲とす
    ることを特徴とする請求項1に記載の音声処理方法。
  7. 【請求項7】 前記認識の結果を表示することを特徴と
    する請求項2に記載の音声処理方法。
  8. 【請求項8】 前記認識の結果を印字することを特徴と
    する請求項2に記載の音声処理方法。
  9. 【請求項9】 前記音声データをマイクロフォンにより
    入力することを特徴とする請求項1に記載の音声処理方
    法。
  10. 【請求項10】 音声データの各次元毎に、該次元の分
    布の全てを一つの分布に合成し、該合成した分布の平均
    から標準偏差の一定数倍を加減した値を求め、 前記求めた値の量子化範囲を導出し、 前記導出された量子化範囲を等分して量子化値を決定し
    て量子化コードブックを作成することを特徴とする音声
    処理方法。
  11. 【請求項11】 前記作成された量子化コードブックを
    用いて入力音声を認識することを特徴とする請求項1に
    記載の音声処理方法。
  12. 【請求項12】 音声データの量子化範囲を導出する量
    子化範囲導出手段と、 前記導出された量子化範囲の分布の出力確率の積分値を
    求める積分値導出手段と、 前記積分値を等分するように量子化値を決定して量子化
    コードブックを作成する量子化コードブック作成手段と
    を有することを特徴とする音声処理装置。
  13. 【請求項13】 前記作成された量子化コードブックを
    用いて入力音声を認識する音声認識手段を有することを
    特徴とする請求項12に記載の音声処理装置。
  14. 【請求項14】 前記量子化範囲導出手段は音声データ
    の各次元毎に量子化範囲を求めることを特徴とする請求
    項12に記載の音声処理装置。
  15. 【請求項15】 前記音声データは隠れマルコフモデル
    とすることを特徴とする請求項12に記載の音声処理装
    置。
  16. 【請求項16】 前記量子化範囲導出手段は、音声デー
    タの各次元毎に、該次元の分布全てについてそれぞれの
    分布の平均から標準偏差の一定数倍を加減した値を求
    め、 前記求めた値の最大値及び最小値を前記量子化範囲とす
    ることを特徴とする請求項12に記載の音声処理装置。
  17. 【請求項17】 前記量子化範囲導出手段は、音声デー
    タの各次元毎に、該次元の分布の全てを一つの分布に合
    成し、該合成した分布の平均から標準偏差の一定数倍を
    加減した値を求め、 前記求めた値の最大値及び最小値を前記量子化範囲とす
    ることを特徴とする請求項12に記載の音声処理装置。
  18. 【請求項18】 前記音声認識手段による認識結果の文
    字列を表示する表示手段を有することを特徴とする請求
    項13に記載の音声処理装置。
  19. 【請求項19】 前記音声認識手段による認識結果の文
    字列を印字する印字手段を有することを特徴とする請求
    項13に記載の音声処理装置。
  20. 【請求項20】 前記音声データを入力するマイクロフ
    ォンを有することを特徴とする請求項12に記載の音声
    処理装置。
  21. 【請求項21】 音声データの各次元毎に、該次元の分
    布の全てを一つの分布に合成し、該合成した分布の平均
    から標準偏差の一定数倍を加減した値を求め、前記求め
    た値の量子化範囲を導出する量子化範囲導出手段と、 前記導出された量子化範囲を等分して量子化値を決定し
    て量子化コードブックを作成する量子化コードブック作
    成手段とを有することを特徴とする音声処理装置。
  22. 【請求項22】 前記作成された量子化コードブックを
    用いて入力音声を認識する音声認識手段を有することを
    特徴とする請求項21に記載の音声処理装置。
  23. 【請求項23】 前記音声処理装置は前記各処理を制御
    するプログラムを記憶した記憶媒体とすることを特徴と
    する請求項12に記載の音声処理方法。
JP8068040A 1996-03-25 1996-03-25 音声処理方法及び装置 Pending JPH09258771A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP8068040A JPH09258771A (ja) 1996-03-25 1996-03-25 音声処理方法及び装置
DE69715071T DE69715071T2 (de) 1996-03-25 1997-03-18 Verfahren und Vorrichtung zur Sprachverarbeitung
EP97301797A EP0798696B1 (en) 1996-03-25 1997-03-18 Speech processing method and apparatus
US08/820,255 US5970445A (en) 1996-03-25 1997-03-18 Speech recognition using equal division quantization

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8068040A JPH09258771A (ja) 1996-03-25 1996-03-25 音声処理方法及び装置

Publications (1)

Publication Number Publication Date
JPH09258771A true JPH09258771A (ja) 1997-10-03

Family

ID=13362298

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8068040A Pending JPH09258771A (ja) 1996-03-25 1996-03-25 音声処理方法及び装置

Country Status (4)

Country Link
US (1) US5970445A (ja)
EP (1) EP0798696B1 (ja)
JP (1) JPH09258771A (ja)
DE (1) DE69715071T2 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000047696A (ja) 1998-07-29 2000-02-18 Canon Inc 情報処理方法及び装置、その記憶媒体
US6347297B1 (en) * 1998-10-05 2002-02-12 Legerity, Inc. Matrix quantization with vector quantization error compensation and neural network postprocessing for robust speech recognition
US6219642B1 (en) * 1998-10-05 2001-04-17 Legerity, Inc. Quantization using frequency and mean compensated frequency input data for robust speech recognition
JP3969908B2 (ja) 1999-09-14 2007-09-05 キヤノン株式会社 音声入力端末器、音声認識装置、音声通信システム及び音声通信方法
JP3728172B2 (ja) 2000-03-31 2005-12-21 キヤノン株式会社 音声合成方法および装置
JP3814459B2 (ja) 2000-03-31 2006-08-30 キヤノン株式会社 音声認識方法及び装置と記憶媒体
JP2001282278A (ja) * 2000-03-31 2001-10-12 Canon Inc 音声情報処理装置及びその方法と記憶媒体
JP4632384B2 (ja) * 2000-03-31 2011-02-16 キヤノン株式会社 音声情報処理装置及びその方法と記憶媒体
US7039588B2 (en) * 2000-03-31 2006-05-02 Canon Kabushiki Kaisha Synthesis unit selection apparatus and method, and storage medium
JP3728177B2 (ja) 2000-05-24 2005-12-21 キヤノン株式会社 音声処理システム、装置、方法及び記憶媒体
JP3932789B2 (ja) * 2000-09-20 2007-06-20 セイコーエプソン株式会社 Hmmの出力確率計算方法および音声認識装置
CN1272698C (zh) 2000-10-11 2006-08-30 佳能株式会社 信息处理装置、信息处理方法
JP2002268681A (ja) * 2001-03-08 2002-09-20 Canon Inc 音声認識システム及び方法及び該システムに用いる情報処理装置とその方法
JP3542578B2 (ja) * 2001-11-22 2004-07-14 キヤノン株式会社 音声認識装置及びその方法、プログラム
JP2003203435A (ja) * 2002-01-09 2003-07-18 Fujitsu Ltd データ再生装置
JP4217495B2 (ja) * 2003-01-29 2009-02-04 キヤノン株式会社 音声認識辞書作成方法、音声認識辞書作成装置及びプログラム、記録媒体
JP4194433B2 (ja) * 2003-07-07 2008-12-10 キヤノン株式会社 尤度算出装置および方法
GB2398191B (en) * 2004-03-10 2004-12-22 David Asher Jaffa Adaptive quantiser
JP4587160B2 (ja) * 2004-03-26 2010-11-24 キヤノン株式会社 信号処理装置および方法
JP4822829B2 (ja) * 2005-12-14 2011-11-24 キヤノン株式会社 音声認識装置および方法
KR100932538B1 (ko) * 2007-12-12 2009-12-17 한국전자통신연구원 음성 합성 방법 및 장치
US9443507B2 (en) * 2013-07-15 2016-09-13 GM Global Technology Operations LLC System and method for controlling a speech recognition system

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2658676B1 (fr) * 1990-02-16 1992-06-12 France Etat Dispositif de quantification a debit de codage numerique variable.
JP3450522B2 (ja) * 1995-06-21 2003-09-29 キヤノン株式会社 情報処理方法及び装置

Also Published As

Publication number Publication date
EP0798696B1 (en) 2002-09-04
US5970445A (en) 1999-10-19
DE69715071T2 (de) 2003-05-28
EP0798696A3 (en) 1998-12-02
EP0798696A2 (en) 1997-10-01
DE69715071D1 (de) 2002-10-10

Similar Documents

Publication Publication Date Title
JPH09258771A (ja) 音声処理方法及び装置
EP1760696B1 (en) Method and apparatus for improved estimation of non-stationary noise for speech enhancement
EP0689194B1 (en) Method of and apparatus for signal recognition that compensates for mismatching
Anastasakos et al. Speaker adaptive training: A maximum likelihood approach to speaker normalization
EP0694906A1 (en) Method and system for speech recognition
EP0966736B1 (en) Method for discriminative training of speech recognition models
EP0831461B1 (en) Scheme for model adaptation in pattern recognition based on taylor expansion
JPH11242494A (ja) 話者適応化装置と音声認識装置
US20140114663A1 (en) Guided speaker adaptive speech synthesis system and method and computer program product
JPH05257492A (ja) 音声認識方式
WO2008137616A1 (en) Multi-class constrained maximum likelihood linear regression
US6393396B1 (en) Method and apparatus for distinguishing speech from noise
JP3189598B2 (ja) 信号合成方法および信号合成装置
US6341264B1 (en) Adaptation system and method for E-commerce and V-commerce applications
JP2002162993A (ja) 対話システム
JP3397568B2 (ja) 音声認識方法及び装置
JP2898568B2 (ja) 声質変換音声合成装置
CN116884430A (zh) 一种虚拟音色转换方法、装置、***及存储介质
JPH10149191A (ja) モデル適応方法、装置およびその記憶媒体
EP1074018B1 (en) Speech recognition system and method
JPH1195786A (ja) パターン認識方法および装置とパターン認識プログラムを格納した記録媒体
JP3144341B2 (ja) 音声認識装置
JP2003122388A (ja) 音響モデル作成装置および方法、音声認識装置
JPH1097277A (ja) 音声認識方法及び装置並びに記憶媒体
EP1008983B1 (en) Maximum likelihood linear regression (MLLR) speaker adaptation using dynamic weighting

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20030128