JP3050934B2 - 音声認識方式 - Google Patents

音声認識方式

Info

Publication number
JP3050934B2
JP3050934B2 JP3058797A JP5879791A JP3050934B2 JP 3050934 B2 JP3050934 B2 JP 3050934B2 JP 3058797 A JP3058797 A JP 3058797A JP 5879791 A JP5879791 A JP 5879791A JP 3050934 B2 JP3050934 B2 JP 3050934B2
Authority
JP
Japan
Prior art keywords
hmm
speech
recognition
segment
word
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP3058797A
Other languages
English (en)
Other versions
JPH04293096A (ja
Inventor
恒雄 新田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP3058797A priority Critical patent/JP3050934B2/ja
Priority to EP92104898A priority patent/EP0504927B1/en
Priority to DE69220825T priority patent/DE69220825T2/de
Publication of JPH04293096A publication Critical patent/JPH04293096A/ja
Priority to US08/195,845 priority patent/US5649056A/en
Application granted granted Critical
Publication of JP3050934B2 publication Critical patent/JP3050934B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/04Speaking
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • G10L15/142Hidden Markov Models [HMMs]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • G10L15/142Hidden Markov Models [HMMs]
    • G10L15/144Training of HMMs
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • G10L2015/025Phonemes, fenemes or fenones being the recognition units
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/12Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being prediction coefficients

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、発声された音声を高精
度に認識することのできる音声認識方式に関する。
【0002】
【従来の技術】近年、音声を認識する方式において、音
声を一定のシンボル系列に変換(これをベクトル量子化
と呼ぶ)し、シンボル系列の遷移として音声をモデル化
するHMM(hidden markov model)を利用した認識方式
が成功を収めている。音声をシンボルに変換する際に参
照するテーブルは、符号帳と呼ばれている。また、HM
Mは、複数の状態をもつ遷移ネットワークで表わされ、
各状態ごとにシンボルの出現確率と状態間の遷移確率が
埋め込まれている。
【0003】符号帳が定常的な係数(例えば、スペクト
ルやケプストラム)を使用している場合、音声事象はH
MM中に埋め込まれた状態の情報にのみ依存する(1つ
の状態の中では、時間関係がなくなる)。このため、Δ
ケプストラムのような微分情報が導入されている。すな
わち、音声は、スペクトル(またはケプストラム)だけ
でなく、それらの時間変化を考慮してシンボル系列に置
換える方法が採用されている。しかし、このように多く
の次元を持つ符号帳では、量子化の際の歪が非常に大き
くなる。このため、パラメータ空間を分割して(上記例
では、スペクトルとその時間変化情報を分離して)、次
元数を減らした複数の符号帳が用いられている。
【0004】これらの方法に対して、スペクトル(もし
くはケプストラム)の時系列、すなわち、2次元パター
ンを直接、量子化する方法があり、マトリクス量子化と
呼ばれている。マトリクス量子化は、音声パターンを近
似なしに直接扱える長所を持つ反面、量子化歪が増大す
る。そこで、量子化の際に統計的手法を用いて、歪を減
らす方法が提案されている。
【0005】しかしこのような方法を用いても、音声を
量子化する際の歪がいまだ大きく、さらに歪を低減する
手段が望まれている。これを解決するには、音声スペク
トル(もしくはケプストラム)をシンボルに置換えずに
(量子化せずに)、直接HMMの中でこれを表現すれば
良い。このような方法は、量子化を伴なう「離散HM
M」に対して「連続HMM」と呼ばれている。連続HM
Mは、一般に厖大な計算を必要としている。これは、H
MMへの入力ベクトル系列から、各状態に対応する共分
散行列を求め、認識の際に入力ベクトルと共分散行列と
の積を計算しなければならないからである。
【0006】
【発明が解決しようとする課題】音声をHMMで表現す
る場合、その単位は音素、音節、単語、文節、あるいは
文等、種々考えられるが、認識の際に入力音声とそのモ
デルがよく一致すること、すなわち、歪が少ないこと
が、全てに共通して大切なことである。上述したよう
に、音声スペクトルの時間変化を含む2次元パターンを
直接HMMの入力とする、連続HMMが、性能的に最も
優れている。しかし、この方法は、厖大な計算を必要と
するため実用化が難しいという問題があった。そこで、
本発明は、発声された音声を高精度に認識することがで
き、しかも、演算処理が厖大化することもない音声認識
方式を提供することを目的とする。
【0007】
【課題を解決するための手段】本発明の音声認識方式
は、入力される音声信号を音響分析することにより特徴
パラメータを求める音響分析手段と、この音響分析手段
により求められた特徴パラメータと予め定められた所定
の音声セグメント単位の符号帳との間でマトリクス量子
化処理を行なうことにより音声セグメント類似度系列を
求めるマトリクス量子化手段と、このマトリクス量子化
手段により求められた音声セグメント類似度系列を音素
特徴ベクトルに統合変換する統合変換手段と、この統合
変換手段により統合変換された音素特徴ベクトルを一定
の単位毎に作成されたHMM(hidden markov model)を
用いて照合することにより認識処理を行なう認識手段と
を具備している。
【0008】
【作用】入力される音声信号を音響分析することにより
特徴パラメータを求め、この求めた特徴パラメータと予
め定められた所定の音声セグメント単位の符号帳との間
でマトリクス量子化処理を行なうことにより音声セグメ
ント類似度系列を求め、この求めた音声セグメント類似
度系列を音素特徴ベクトルに統合変換し、この統合変換
された音素特徴ベクトルを一定の単位毎に作成されたH
MMを用いて照合することにより、高精度の認識処理を
行なうものである。
【0009】
【実施例】以下、本発明の一実施例について図面を参照
して説明する。
【0010】図1は、本発明に係る音声認識方式が適用
される音声認識装置を概略的に示すものである。本発明
では、音声学的に意味のあるセグメント(Phonetic Seg
ment;以下PSと記述する)を量子化の単位とし、この
PSの類似度(距離)系列を一旦、音素に統合変換した
後、音素特徴ベクトル系列をHMM単語照合部に送る。
【0011】ここまでの処理を以下に更に詳しく説明す
る。まず、音響分析部11にて、入力される音声信号
を、例えばLPC(リニア・プレディクティブ・コーデ
ィング)分析もしくはBPF(バンドパス・フィルタ)
分析する。具体的には、例えば入力音声を図示されない
A/D変換器を用いて、サンプリング周波数が12KH
z、12ビットで量子化した後、フレーム長が24mse
c、フレーム周期が8msecで、16次程度のLPC(メ
ル)ケプストラムを求める。分析された特徴パラメータ
は、マトリクス量子化部12に与えられ、PS符号帳1
3に登録されている所定のPS単位の音声辞書との間
で、時間軸方向に連続的にマッチング処理が行なわれ
る。マトリクス量子化部12でのPSによる連続マッチ
ング処理は、例えば次式に示す部分空間法に基づく類似
尺度を用いて行なわれる。 ここで、C(PS):LPCメルケプストラム(C={C1
,C2 ,…,CN })φm :PSの固有ベクトル (・)は内積を、‖ ‖はノルムを示している。すなわ
ち、音声符号帳は、各PS毎にM個の直交化された固有
ベクトルで表現されている。ここで、本発明に用いられ
るPSを説明する。PSは、例えば次のようなものから
なる。 (1) 持続性セグメント ;(1-1) 母音定常部 (1-2) 持続性の子音部 (2) 子音セグメント ;母音への渡り(過渡部)を含
む部分[半音節] (3) 音節境界セグメント;(3-1) 母音境界 (3-2) 母音−子音境界 (3-3) 母音−無音境界 (4) その他のセグメント;母音脱落、VCV(V:母音、
C:子音)等例として、100単語の音声資料に対して選
定した191種の音声セグメントを次に示す。 持続性セグメント:AA1A,AA2A,II1A,II2A,II3A,UU1A,UU
2A,UU3A,EE1A,EE2A,OO1A,OO2A,NN1A,NN2A,NN4A,NN5A,BZ
1A,MM1A,RR1A,BB1A,SS1C,SH1C,CC1C,ZZ1A,HHAB,HHIB,HH
UB,HHEB,HHOB,HVAA,HVIA,HVUA,HVEA 子音セグメント:QA1D,KA1E,KA2C,SA2E,TA2C,NA2B,HA2
B,GA2C,DA1E,DA2B,CA1E,FA1C,FA2C,KI1E,KI2C,SI2E,NI1
C,NI2B,HI1D,HI2C,MI2B,RI2B,BI1C,BI2B,PI1C,PI2C,KU1
E,KU2C,SU2D,CU1E,CU2E,HU1D,RU2B,ZU2D,BU2B,QE1D,KE1
E,KE2C,SE1E,SE2E,TE1D,TE2C,NE1C,NE2B,HE1D,HE2B,ME1
C,ME2B,RE1C,RE2B,GE1D,GE2E,ZE1E,ZE2E,DE1C,DE2B,BE1
C,BE2B,PE1C,PE2B,QO1D,KO1D,KO2C,TO1D,TO2C,NO2B,HO1
D,FO1E,FO2E,MO2B,GO2C,DO2B,BO2B,PO1C,PO2B,KY1E,SY1
E,CY1E,NY2D,HY2E,RY1D,RY2D,ZY2D 境界セグメント: 母音境界 AI1E,ANNC,INNC,IE1C,IA1E,UA1C,EI1C,EO1E,E
NNC,EU1C,OI1E,OU1C,ONNC,NNOC,NNEB 母音−子音境界 YA1E,YU1E,YO1E,AS1A,AN1A,AM1A,AR1A,
AZ1A,AD1A,AB1A,IS1A,IN1A,IH1A,IR1A,IG1A,ID1A,IB1A,
US1A,UN1A,UM1A,UD1A,UB1A,EN1A,EH1A,EF1A,EM1A,ER1A,
EG1A,ON1A,OH1A,OM1A,OR1A,OG1A,OD1A,OB1A,NS1A,NH1A,
NG1A,NZ1A 母音−無音境界 AQ1A,IQ1A,UQ1A,EQ1A,OQ1A,NQ1A その他のセグメント: VCV ANAC,ANEC,ARUC,AREC,IRIC,IBOC,UNEC,UDA
C,UBUC,EREC,ERUC,ORIC,ORUC, 母音脱落ほか KS1D,KQ1D,AUQA
【0012】ここで、持続性セグメント中のAA1,AA2
は、後者がストレスの弱い母音[a]の一部から切り出
されたことを示す。また、II3,UU3 は無声化したセグメ
ントである。NN1 〜NN5 は異なる音素環境に対応してい
る。BZ1 〜ZZ1 は子音に先立って出現する声帯音ほかの
現象、HHA 〜HHO は無声の[h]、またHVA 〜HVE は有
声化した[h]に対応している。
【0013】次に、子音セグメント中のQA1 は語頭の母
音を、またKA1,KA2 は原則として後者が語中から切り出
されたものであることを示している。拗音に属する外1
などは、CA1 →YA1 →AA1 と境界セグメントをはさんで
構成している(実際の音声では、CA1 →AA1 またはAA2
と遷移することもありうる)。
【0014】
【数1】
【0015】境界セグメントとしては、母音境界(AI
1)、母音−子音境界(AS1)、母音−無音境界(AQ1)など
が登録されている。なお、母音境界を表わすセグメント
では、撥音はNNと記されている(ANN)。
【0016】その他のセグメントには、発声速度の速い
場合に観測される、子音の脱落しかけたVCV セグメント
(ANA) 、母音の脱落したセグメント(KS1)などがある。
PS符号帳13には、このような 191種の音声セグメン
トの情報が直交化辞書として格納されている。
【0017】さて、このようなPSを量子化時のセグメ
ントとする場合、セグメントの特徴パラメータの次元数
(ここではLPCメルケプストラムの次数)と時間幅
(フレーム数)が問題となる。すなわち、母音定常部等
については、その特徴パラメータの次元数を多く必要と
するが、そのフレーム数は少なくて良い。また、破裂子
音等については、特徴パラメータの次元数もそのフレー
ム数もある程度必要である。更に、摩擦子音等にあって
は、特徴パラメータの次元数は少なくて良いが、多くの
フレーム数を必要とする。そこで、本発明では、各PS
の特徴パラメータとフレーム数を次のように定めてい
る。
【0018】(特徴パラメータ,フレーム数);A=
(16, 4) B=(14, 6) C=(12, 8) D=(10,10) E=( 8,12) の組合わせの中から選択している。先に説明したPSの
種類を示す4文字のうち、最後の1文字は、この設定を
表わしている。この結果、母音ではAA1Aのように特徴パ
ラメータの次元数を「16」と大きく、またZE1Eのよう
な摩擦子音はフレーム数を「12」と多く設定すること
ができる。また、これによりPS全体の次元数は64〜
100と、比較的近い次元数に収まり、統計的なマッチ
ング処理(例えば部分空間法)による量子化歪の低減が
可能になった。
【0019】マトリクス量子化部12で求められたPS
類似度系列の精度を見るため、第1位となったPSの系
列を求め、このシンボル系列を(離散)HMMへ入力す
ることで単語音声の評価実験を行なった。この実験は、
不特定話者の単語音声を対象に行なわれ、結果は32単
語で98.4%と、従来の単語単位のパターンマッチン
グ法と比較して同程度の認識率であった。しかし、類似
した単語の対からなる32単語では、91.0%しか得
られず、第1位のシンボル系列を使用する「離散HM
M」では量子化誤差が未だに大きく、HMMを連続分布
として扱う必要のあることが示された。
【0020】しかし、n種類のPSの類似度値からなる
ベクトルS=(S1,S2,… ,Sn )に対して、「連続分
布HMM」を直接適用することは、厖大な計算を必要と
するため得策ではない。そこで、音声セグメントの類似
度空間Rnを効率良く、音素特徴空間Rm(m<<n)に
統合変換した後、連続分布HMMを適用する方法を採用
した。
【0021】音声セグメントPSの多くは、前述したよ
うに音声中に現れる様々な環境下の音素を表現するため
に設計されている。このため、これらと音素との対応付
けは比較的容易である。例えば、音素/r/に対応する
音声セグメントは、RA1,RA2,RI1,RI2,RU1,RU2,RE1,RE2,
RO1,RO2,RY1,RY2,RW1,RW2,ARA,ARI,ARU,ARE,ARO,IRA,IR
I,IRU,IRE,IRO,URA,URI,URU,URE,URO,ERA,ERI,ERU,ERE,
ERO,ORA,ORI,ORU,ORE,ORO,NRA,NRI,NRU,NRE,NROの44
種である。ここで、セグメント名の数字は「1」が語頭
を、「2」が語中を示す。また、 ARAのように前後を母
音で挟まれたセグメントは、VCV型に属する。音声セ
グメントを音素に統合変換する方法は、種々考えられ
る。本実施例では と最大値フィルタにより、その音素に属するPSを統合
する。右辺の{}内は、PSの類似度値、左辺は統合さ
れた音素のスコアである。
【0022】一般に用いられる音素には、{o,a,
e,i,u,h,j,w,r,n,m,z,s,g,
k,d,t,b,p}の19種がある。本実施例では、
別にモーラ音素/N/(撥音),語頭の母音V,持続性
子音部C,母音から子音への過渡部T、母音から無音へ
の過渡部Xを加えた24種を、音素特徴として用いる。
これにより、PSの類似度系列は、PS−音素統合変換
部14において、上記(1)式を実行することにより、
24次元の音素特徴ベクトルからなる系列へと変換さ
れ、HMM認識部15へと送られる。図2に、単語音声
「堅固」に対応する音素特徴ベクトルの例を示す。
【0023】次に、本発明におけるHMMを用いた単語
照合について説明する。HMMではN個の状態S1 ,S
2 ,…,SN を持ち、初期状態がこれらN個の状態に確
率的に分布しているとする。音声では一定のフレーム周
期ごとに、ある確率(遷移確率)で状態を遷移するモデ
ルが使われる。遷移の際には、ある確率(出力確率)で
ラベルを出力するが、ラベルを出力しないで状態を遷移
するナル遷移を導入することもある。出力ラベル系列が
与えられても(状態を遷移する仕方は複数あるから)状
態遷移系列は一意には決まらない。観測できるのはラベ
ル系列だけであることから、隠れ(hidden)マルコフモ
デルと呼ばれている。HMMモデルMは、次の6つのパ
ラメータから定義される。 N : 状態数 (状態S1 ,S2 ,…,SN ,実験で
はN=10) K : ラベル数(ラベルL=1,2,…,K,実験で
はK=191) pij : 遷移確率(SiにいてSjに遷移する確率) qij(k) : SiからSjへの遷移の際にラベルkを出力
する確率 mi : 初期状態確率 (実験では初期状態はS1
限定) F : 最終状態の集合(実験では最終状態はS10に限
定)
【0024】次に、モデルMに対して音声の特徴を反映
した遷移上の制限を加える。音声では、一般に状態Si
から以前に通過した状態(Si-1,Si-2,……)に戻る
ようなループは、時間の前後関係を乱すため許されな
い。上記のようなHMMの構造としては、図3のような
例が代表的である。
【0025】HMMを学習する際には、HMM学習部1
6で、ラベル系列Oを与えて、Pr(O/M)が最大と
なるモデルMのパラメータを推定すれば良い。この推定
に用いられるアルゴリズムとしては、フォワード・バッ
クワードアルゴリズムが知られている。
【0026】また、HMMの評価(認識)では、モデル
Mがラベル系列O=O1 ,O2 ,…,OT を出力する確
率Pr(O/M)を求める。すなわち、HMM認識部1
5は、各単語に対応してモデルを仮定し、Pr(O/
M)が最大になるようなモデルM(単語)をヴイタービ
のアルゴリズムを用いて検索する。
【0027】以上は、主として離散HMMを対象に説明
した。連続出力確率分布HMM(以下、連続HMMと記
述する)では、入力はラベル系列ではなく、ベクトル
(本発明では音素特徴ベクトル)となる。これにより、
上記の出力確率qij(k) (SiからSjへの遷移の際にラ
ベルkを出力する確率)の代わりに、ベクトルの出現分
布が与えられる。通常、この分布(ベクトルの各要素の
分布)は正規分布もしくは、正規分布の混合として扱わ
れる。連続HMMモデルは、次の6つのパラメータから
定義される。 N : 状態数 (状態S1 ,S2 ,…,SN ,実験で
はN=10) pij : 遷移確率(SiにいてSjに遷移する確率) μij : SiからSjへの遷移の際に表われる平均ベク
トル Σij : SiからSjへの遷移の際に表われるベクトル
の共分散 mi : 初期状態確率 (実験では初期状態はS1 に
限定) F : 最終状態の集合(実験では最終状態はS10に限
定)
【0028】混合分布では、μijとΣijが複数与えられ
る。連続HMMの学習および評価(認識)は、離散HM
Mと同様に各々フォワード・バックワードアルゴリズム
と、ヴィタービのアルゴリズムを使用することで行なわ
れる。
【0029】実験では、多数の学習用データ(音素特徴
ベクトル)をHMM学習部16に与えて、確率Pr(O
/M)を最大にするように、32単語に対応する各モデ
ルMのパラメータを推定した(連続HMMでは、Oはベ
クトル系列である)。得られたモデルのパラメータ(単
語毎のμijとΣij)は、HMM単語モデルバッファ17
に蓄積される。
【0030】次に、認識の段階には、HMM単語モデル
バッファ17に蓄積された各モデルに対して、HMM認
識部15において、入力音声に対する音素特徴ベクトル
の確率Pr(O/M)を求め、この確率が最大になるよ
うなモデルMを求める。そのモデルに対応する単語が認
識結果となる。本発明の評価実験は、前述した離散HM
Mに対する実験と同じデータ(32個の類似単語)に対
して行なわれた。実験では、ベクトルの出現分布を単一
の正規分布とした場合と、2つの正規分布(混合分布)
からなる場合について行なった。ただし、学習データが
少ないことを考慮して、共分散は対角要素のみを用いて
いる。結果は、単一分布で91.3%、混合分布で9
2.4%と離散HMMの成績(91.0%)を上回り、
本発明の優れていることが示された。
【0031】以上説明したように上記実施例によれば、
音声学的に意味のある「音声セグメント(PS)」を単
位として、統計的にマトリクス量子化処理を行ない、P
S類似度系列を音素特徴ベクトルに統合変換した後、H
MMを用いて認識処理を実行するので、連続音声中に生
じる様々な変形を効果的に吸収することが可能となり、
その結果、高精度な音声認識を実現することができる。
しかも、演算処理が厖大化することもない等、実用上多
大な効果が得られる。
【0032】なお、上記実施例では、音響分析によって
求められた特徴パラメータを、音声セグメント単位の符
号帳との間でマトリクス量子化処理を行なったが、この
代わりに通常のベクトル量子化を用いることも可能であ
る。また、特徴パラメータを音声セグメント単位に設定
されたニューラルネットワークのような他の識別器に通
し、この出力を音素特徴ベクトルに統合変換した後、連
続出力確率分布HMMを通して照合する等の変形も考え
られる。さらに、前記実施例では、音素特徴ベクトルへ
の統合変換に最大値フィルタを用いたが、音声セグメン
ト類似度系列をニュートラルネットワークへ入力して、
音素特徴ベクトルに統合変換する等の変形も考えられ
る。
【0033】
【発明の効果】以上詳述したように本発明によれば、発
声された音声を高精度に認識することができ、しかも、
演算処理が厖大化することもない音声認識方式を提供す
ることができる。
【図面の簡単な説明】
【図1】本発明に係る音声認識方式が適用される音声認
識装置の構成を概略的に示すブロック図。
【図2】単語部に対応する音素特徴ベクトルの例を示す
図。
【図3】HMMの構造の代表例を示す図。
【符号の説明】
11…音響分析部、12…マトリクス量子化部、13…
PS符号帳、14…PS−音素統合変換部、15…HM
M認識部、16…HMM学習部、17…HMM単語モデ
ルバッファ。
フロントページの続き (56)参考文献 特開 昭63−197998(JP,A) 特開 平2−29799(JP,A) 特開 昭63−291099(JP,A) 特開 平4−113398(JP,A) 特開 昭62−70898(JP,A) 日本音響学会平成3年度春季研究発表 会講演論文集 3−P−14『SMQ−H MMにおける「音声セグメント−音素変 換」の検討』p.175−176(平成3年3 月17日発行) 日本音響学会平成3年度春季研究発表 会講演論文集 3−P−19『SMQ−H MMによる不特定話者単語認識の中語彙 への適用検討』p.185−186(平成3年 3月17日発行) 日本音響学会平成2年度秋季研究発表 会講演論文集 2−8−12『音声セグメ ントを単位とするSM−HMMによる不 特定話者単語認識』p.69−70(平成2 年9月発行) 電子情報通信学会技術研究報告[音声 ]Vol.90,No.374,SP90−68, 「SM−HMMによる不特定話者単語認 識」p.1−8(1990年12月21日発行 (58)調査した分野(Int.Cl.7,DB名) G10L 15/00 - 17/00 JICSTファイル(JOIS)

Claims (1)

    (57)【特許請求の範囲】
  1. 【請求項1】 入力される音声信号を音響分析すること
    により特徴パラメータを求める音響分析手段と、この音
    響分析手段により求められた特徴パラメータと予め定め
    られた所定の音声セグメント単位の符号帳との間でマト
    リクス量子化処理を行なうことにより音声セグメント類
    似度系列を求めるマトリクス量子化手段と、このマトリ
    クス量子化手段により求められた音声セグメント類似度
    系列を音素特徴ベクトルに統合変換する統合変換手段
    と、この統合変換手段により統合変換された音素特徴ベ
    クトルを一定の単位毎に作成されたHMM(hidden mar
    kov model)を用いて照合することにより認識処理を行な
    う認識手段と、を具備したことを特徴とする音声認識方
    式。
JP3058797A 1991-03-22 1991-03-22 音声認識方式 Expired - Fee Related JP3050934B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP3058797A JP3050934B2 (ja) 1991-03-22 1991-03-22 音声認識方式
EP92104898A EP0504927B1 (en) 1991-03-22 1992-03-20 Speech recognition system and method
DE69220825T DE69220825T2 (de) 1991-03-22 1992-03-20 Verfahren und System zur Spracherkennung
US08/195,845 US5649056A (en) 1991-03-22 1994-02-14 Speech recognition system and method which permits a speaker's utterance to be recognized using a hidden markov model with subsequent calculation reduction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3058797A JP3050934B2 (ja) 1991-03-22 1991-03-22 音声認識方式

Publications (2)

Publication Number Publication Date
JPH04293096A JPH04293096A (ja) 1992-10-16
JP3050934B2 true JP3050934B2 (ja) 2000-06-12

Family

ID=13094576

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3058797A Expired - Fee Related JP3050934B2 (ja) 1991-03-22 1991-03-22 音声認識方式

Country Status (4)

Country Link
US (1) US5649056A (ja)
EP (1) EP0504927B1 (ja)
JP (1) JP3050934B2 (ja)
DE (1) DE69220825T2 (ja)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0772840B2 (ja) * 1992-09-29 1995-08-02 日本アイ・ビー・エム株式会社 音声モデルの構成方法、音声認識方法、音声認識装置及び音声モデルの訓練方法
GB9223066D0 (en) * 1992-11-04 1992-12-16 Secr Defence Children's speech training aid
US5440662A (en) * 1992-12-11 1995-08-08 At&T Corp. Keyword/non-keyword classification in isolated word speech recognition
JPH08502603A (ja) * 1993-01-30 1996-03-19 コリア テレコミュニケーション オーソリティー 音声合成及び認識システム
US5794198A (en) * 1994-10-28 1998-08-11 Nippon Telegraph And Telephone Corporation Pattern recognition method
GB9509831D0 (en) 1995-05-15 1995-07-05 Gerzon Michael A Lossless coding method for waveform data
JPH0981183A (ja) * 1995-09-14 1997-03-28 Pioneer Electron Corp 音声モデルの作成方法およびこれを用いた音声認識装置
JPH10260692A (ja) * 1997-03-18 1998-09-29 Toshiba Corp 音声の認識合成符号化/復号化方法及び音声符号化/復号化システム
US7630895B2 (en) * 2000-01-21 2009-12-08 At&T Intellectual Property I, L.P. Speaker verification method
US6076055A (en) * 1997-05-27 2000-06-13 Ameritech Speaker verification method
FR2769117B1 (fr) * 1997-09-29 2000-11-10 Matra Comm Procede d'apprentissage dans un systeme de reconnaissance de parole
US6092039A (en) * 1997-10-31 2000-07-18 International Business Machines Corporation Symbiotic automatic speech recognition and vocoder
US6219642B1 (en) * 1998-10-05 2001-04-17 Legerity, Inc. Quantization using frequency and mean compensated frequency input data for robust speech recognition
US6347297B1 (en) * 1998-10-05 2002-02-12 Legerity, Inc. Matrix quantization with vector quantization error compensation and neural network postprocessing for robust speech recognition
JP2001166789A (ja) * 1999-12-10 2001-06-22 Matsushita Electric Ind Co Ltd 初頭/末尾の音素類似度ベクトルによる中国語の音声認識方法及びその装置
TW521266B (en) * 2000-07-13 2003-02-21 Verbaltek Inc Perceptual phonetic feature speech recognition system and method
JP2002189487A (ja) * 2000-12-20 2002-07-05 Mitsubishi Electric Corp 音声認識装置および音声認識方法
WO2002059856A2 (en) * 2001-01-25 2002-08-01 The Psychological Corporation Speech transcription, therapy, and analysis system and method
US6711544B2 (en) 2001-01-25 2004-03-23 Harcourt Assessment, Inc. Speech therapy system and method
US6714911B2 (en) 2001-01-25 2004-03-30 Harcourt Assessment, Inc. Speech transcription and analysis system and method
US6732076B2 (en) 2001-01-25 2004-05-04 Harcourt Assessment, Inc. Speech analysis and therapy system and method
US20020143550A1 (en) * 2001-03-27 2002-10-03 Takashi Nakatsuyama Voice recognition shopping system
TW556152B (en) * 2002-05-29 2003-10-01 Labs Inc L Interface of automatically labeling phonic symbols for correcting user's pronunciation, and systems and methods
US7089185B2 (en) * 2002-06-27 2006-08-08 Intel Corporation Embedded multi-layer coupled hidden Markov model
US7231019B2 (en) * 2004-02-12 2007-06-12 Microsoft Corporation Automatic identification of telephone callers based on voice characteristics
US7970613B2 (en) 2005-11-12 2011-06-28 Sony Computer Entertainment Inc. Method and system for Gaussian probability data bit reduction and computation
US8010358B2 (en) * 2006-02-21 2011-08-30 Sony Computer Entertainment Inc. Voice recognition with parallel gender and age normalization
US7778831B2 (en) 2006-02-21 2010-08-17 Sony Computer Entertainment Inc. Voice recognition with dynamic filter bank adjustment based on speaker categorization determined from runtime pitch
US8442829B2 (en) * 2009-02-17 2013-05-14 Sony Computer Entertainment Inc. Automatic computation streaming partition for voice recognition on multiple processors with limited memory
US8788256B2 (en) * 2009-02-17 2014-07-22 Sony Computer Entertainment Inc. Multiple language voice recognition
US8442833B2 (en) * 2009-02-17 2013-05-14 Sony Computer Entertainment Inc. Speech processing with source location estimation using signals from two or more microphones
US9153235B2 (en) 2012-04-09 2015-10-06 Sony Computer Entertainment Inc. Text dependent speaker recognition with long-term feature based on functional data analysis
JP6495850B2 (ja) * 2016-03-14 2019-04-03 株式会社東芝 情報処理装置、情報処理方法、プログラムおよび認識システム
CN112786050B (zh) * 2019-11-07 2024-02-02 王皓 一种语音识别的方法、装置及设备
CN111508498B (zh) * 2020-04-09 2024-01-30 携程计算机技术(上海)有限公司 对话式语音识别方法、***、电子设备和存储介质

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6024994B2 (ja) * 1980-04-21 1985-06-15 シャープ株式会社 パタ−ン類似度計算方式
JPS59226400A (ja) * 1983-06-07 1984-12-19 松下電器産業株式会社 音声認識装置
US5131043A (en) * 1983-09-05 1992-07-14 Matsushita Electric Industrial Co., Ltd. Method of and apparatus for speech recognition wherein decisions are made based on phonemes
JPH0760318B2 (ja) * 1986-09-29 1995-06-28 株式会社東芝 連続音声認識方式
US5027406A (en) * 1988-12-06 1991-06-25 Dragon Systems, Inc. Method for interactive speech recognition and training
JPH0636156B2 (ja) * 1989-03-13 1994-05-11 インターナショナル・ビジネス・マシーンズ・コーポレーション 音声認識装置
JPH0833739B2 (ja) * 1990-09-13 1996-03-29 三菱電機株式会社 パターン表現モデル学習装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
日本音響学会平成2年度秋季研究発表会講演論文集 2−8−12『音声セグメントを単位とするSM−HMMによる不特定話者単語認識』p.69−70(平成2年9月発行)
日本音響学会平成3年度春季研究発表会講演論文集 3−P−14『SMQ−HMMにおける「音声セグメント−音素変換」の検討』p.175−176(平成3年3月17日発行)
日本音響学会平成3年度春季研究発表会講演論文集 3−P−19『SMQ−HMMによる不特定話者単語認識の中語彙への適用検討』p.185−186(平成3年3月17日発行)
電子情報通信学会技術研究報告[音声]Vol.90,No.374,SP90−68,「SM−HMMによる不特定話者単語認識」p.1−8(1990年12月21日発行

Also Published As

Publication number Publication date
DE69220825D1 (de) 1997-08-21
EP0504927A3 (en) 1993-06-02
EP0504927A2 (en) 1992-09-23
EP0504927B1 (en) 1997-07-16
JPH04293096A (ja) 1992-10-16
DE69220825T2 (de) 1998-02-19
US5649056A (en) 1997-07-15

Similar Documents

Publication Publication Date Title
JP3050934B2 (ja) 音声認識方式
Hon et al. CMU robust vocabulary-independent speech recognition system
Aggarwal et al. Performance evaluation of sequentially combined heterogeneous feature streams for Hindi speech recognition system
Vadwala et al. Survey paper on different speech recognition algorithm: challenges and techniques
US20010010039A1 (en) Method and apparatus for mandarin chinese speech recognition by using initial/final phoneme similarity vector
Ranjan et al. Isolated word recognition using HMM for Maithili dialect
Manasa et al. Comparison of acoustical models of GMM-HMM based for speech recognition in Hindi using PocketSphinx
Furui On the use of hierarchical spectral dynamics in speech recognition
Hamaker et al. Advances in alphadigit recognition using syllables
Hon et al. Recent progress in robust vocabulary-independent speech recognition
Ezzine et al. Moroccan dialect speech recognition system based on cmu sphinxtools
Ananthakrishna et al. Kannada word recognition system using HTK
Wang et al. A multi-space distribution (MSD) approach to speech recognition of tonal languages
Zealouk et al. Investigation on speech recognition Accuracy via Sphinx toolkits
Womak et al. Improved speech recognition via speaker stress directed classification
Azmi et al. Syllable-based automatic arabic speech recognition in noisy-telephone channel
Mathew et al. Significance of feature selection for acoustic modeling in dysarthric speech recognition
Ananthakrishna et al. Effect of time-domain windowing on isolated speech recognition system performance
Kuah et al. A neural network-based text independent voice recognition system
Hwang et al. Subphonetic modeling for speech recognition
JP3299170B2 (ja) 音声登録認識装置
Glass et al. Acoustic segmentation and phonetic classification in the SUMMIT system
JP2994443B2 (ja) 音声認識方式
JP2943473B2 (ja) 音声認識方法
Geetha et al. Monosyllable isolated word recognition for Tamil language using continuous density hidden Markov model

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees