JP2733955B2 - 適応型音声認識装置 - Google Patents

適応型音声認識装置

Info

Publication number
JP2733955B2
JP2733955B2 JP63122559A JP12255988A JP2733955B2 JP 2733955 B2 JP2733955 B2 JP 2733955B2 JP 63122559 A JP63122559 A JP 63122559A JP 12255988 A JP12255988 A JP 12255988A JP 2733955 B2 JP2733955 B2 JP 2733955B2
Authority
JP
Japan
Prior art keywords
pattern
learning
standard
unit
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP63122559A
Other languages
English (en)
Other versions
JPH01291298A (ja
Inventor
和永 吉田
隆夫 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
Nippon Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Electric Co Ltd filed Critical Nippon Electric Co Ltd
Priority to JP63122559A priority Critical patent/JP2733955B2/ja
Priority to EP89108844A priority patent/EP0342630B1/en
Priority to DE68912397T priority patent/DE68912397T2/de
Publication of JPH01291298A publication Critical patent/JPH01291298A/ja
Priority to US07/688,715 priority patent/US5150449A/en
Application granted granted Critical
Publication of JP2733955B2 publication Critical patent/JP2733955B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/065Adaptation
    • G10L15/07Adaptation to the speaker

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Character Discrimination (AREA)

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明は音声を認識する音声認識装置において、異な
る話者や異なる環境における発声に適応できる適応型音
声認識装置に関する。
(従来の技術) 従来、入力された音声を、あらかじめ保持されている
標準的な発声の音声パターンである標準パターンをもと
に認識する方法は存在した。このような方法には、たと
えば、共立出版株式会社の「音声認識」(以下「文献
1」と称す)の101頁から113頁に述べられているような
DPマッチングによる方法や、Proceeding of The IEEE.V
ol.73,No.11の1625頁に“Structural Methodsin Automa
tic Speech Recognition"(1985年11月)と題されて発
表されている論文に述べられている隠れマルコフ・モデ
ル(HMM)による方法などがある。
これらの方法を用いた音声認識装置において、標準パ
ターン作成に用いた話者以外の特定の話者(以下特定話
者と呼ぶことにする)の音声を認識する場合、話者によ
り音声パターンは大きく異なるので、その話者の音声に
より標準パターンを変更しなければ高い認識性能は得ら
れない。また、標準パターン作成に用いた音声と、周囲
雑音の大きさや電話回線の有無等が異なる環境で発声さ
れた音声を認識する場合も、音声パターンが大きく変形
するので標準パターンの変更が必要である。以下、特定
話者の音声を認識する場合に限定して述べるが、発声環
境が異なる音声を認識する場合も同様である。
通常、特定話者の音声を認識する場合、その特定話者
が認識対象語を全て発声し、その音声により標準パター
ンを入れ換える必要があった。しかし、認識対象語彙が
多い場合、全ての認識対象音声を発声するには多くの労
力が必要であるという欠点があった。
このような欠点に対し、少量の音声により標準パター
ンを特定話者に適応化する手法が既に提案されている。
たとえば、IEEE,ICASSP 86 49.5,の2643頁に“Speaker
Adaptation Through Vector Quantization"(1986年)
と題されて発表されている論文(以下「文献2」と称
す)には、ベクトル量子化法に基づく話者適応化法が述
べられている。
この方法では、まず、標準的な発声の音声のパターン
よりベクトル量子化のためのコードブック(以下標準コ
ードブックと呼ぶ)を作成し、この標準コードブックを
用いて、音声パターンをベクトル量子化し標準パターン
を作成する。特定話者の音声を認識する場合、あらかじ
め、その話者が発生した認識対象語の一部(または全
部)の音声パターン(学習パターン)を用いて標準コー
ドブックを適応化し、適応化コードブックを作成する。
この適応化コードブックを標準コードブックの替わりに
用いることにより、ベクトル量子化された標準パターン
を変更することなしに、特定話者の音声を認識すること
ができる。すなわち、認識対象語彙が大きい場合でも、
全語彙を発声することなしに一部の単語を発声すること
により、特定話者の音声を認識することが可能となる。
次に、適応化コードブックの作成法について述べる。
まず、学習パターンよりコードブック(以下「学習コー
ドブック」と呼ぶ)を作成、この学習コードブックを用
いて学習パターンをベクトル量子化する。続いて、同一
単語の標準パターンと学習パターンを、DPマッチングを
用いて時間軸の対応付けを行う。この標準コードブック
中のコードベクトル(標準コードベクトル)に対応付け
られた学習コードブック中のコードベクトル(学習コー
ドベクトル)の頻度をヒストグラムの形で保存する。適
応化コードブックは、標準コードベクトルに対応付けら
れた学習コードベクトルをヒストグラム中の出現頻度で
重み付け、平均化することにより得られる。
(発明が解決しようとする問題点) 引用文献2に述べられているような従来法では、ベク
トル量子化を用いているため、量子化誤差に起因する認
識性能の低下が避けられなかった。
また、音声パターンの、話者や発声環境のちがいによ
る変形のしかたは、前後の音素環境により異なる。その
ため、従来法のように1時刻点におけるベクトルをもと
に変換する方法では、前後の音素環境を考慮することが
できないので適切な変換が行えないという欠点があっ
た。
本発明は、量子化誤差の影響のない、前後の音素環境
をも考慮可能な、高性能な音声パターン適応化法を実現
するものである。
(問題点を解決するための手段) 本願の第1の発明による適応型音声認識装置は、標準
的な音声パターンである標準パターンを保持する標準パ
ターンメモリ部と、前記標準パターンを適応化標準パタ
ーンに変換するニューラルネットワーク部と、入力され
た音声パターンである入力パターンを前記適応化標準パ
ターンを用いて認識する認識部と、前記ニューラルネッ
トワーク部を学習する場合、入力された学習パターンと
前記標準パターンの時間軸の対応付けを行う時間軸整合
部と、前記標準パターンを前記ニューラルネットワーク
部に入力した際に出力すべきパターンを与える教師信号
として前記時間軸に対応付けられた時刻点の学習パター
ンを用いて前記ニューラルネットワーク部の学習を制御
する学習制御部とを有する。
本願の第2の発明による適応型音声認識装置は、標準
的な音声パターンである標準パターンを保持する標準パ
ターンメモリ部と、入力された音声パターンである入力
パターンを適応化音声パターンに変換するニューラルネ
ットワーク部と、前記適応化音声パターンを前記標準パ
ターンを用いて認識する認識部と、前記ニューラルネッ
トワーク部を学習する場合、入力された学習パターンと
前記標準パターンの時間軸の対応付けを行う時間軸整合
部と、前記学習パターンを前記ニューラルネットワーク
部に入力した際に出力すべきパターンを与える教師信号
として前記時間軸が対応付けられた時刻点の標準パター
ンを用いて前記ニューラルネットワーク部の学習を制御
する学習制御部とを有する。
また、本願の第3の発明による適応型音声認識装置
は、前記本願の第1の発明に加え、前記適応化標準パタ
ーンを保持する適応化標準パターン部を有する。
本願の第4の発明による適応型音声認識装置は、前記
本願の第1および2および3の発明に加え、学習時に、
前記ニューラルネットワーク部の入力に、教師信号と対
応する時刻点の近傍の時間における音声パターンを提示
する読み出し制御部を有する。
(作用) 本願の第1の発明による適応型音声認識装置は、標準
的な話者の音声により作成された標準パターンを、ニュ
ーラルネットワークを用いて特定の話者の標準パターン
に変換し、これにより特定話者の音声を認識するもので
ある。本願の第2の発明による適応型音声認識装置は、
入力された特定話者の音声をニューラルネットワークを
用いて標準的な話者の音声パターンに変換し、それを標
準的な話者の標準パターンにより認識するものである。
ここで用いるニューラルネットワークには、例えば
「日経エレクトロニクス」誌427号(1987年8月)の115
頁から124頁に「ニューラル・ネットをパターン認識、
信号処理、知識処理に使う」と題された記事(以下引用
文献3と称す)により詳細に解説されているパターン連
想型ニューラル・ネットを用いることができる。第3図
は、このニューラルネットワークの構造を示すものであ
る。図に示すように、このニューラルネットワークは入
力層、中間層、出力層の各層が階層構造になっている。
中間層は、この図では1層となっているが2層以上の多
層でもよい。中間層の無いネットワークもありうる。
ニューラルネットワークの各ユニットの出力は、その
ユニットに接続されているユニットからの出力に重みw
を掛けたものの総和の値を、非線形関数により変換した
ものである。このようにニューラルネットワークの変換
特性は、重みwにより決定される。重みwの値は、学習
により決定できる。
音声パターンは、入力された音声を分析したものであ
る。分析法としては、ケプストラム分析等、引用文献1
の30頁に述べられている。さまざまな方法を用いること
ができる。このような音声パターンは、特徴ベクトルの
時系列、 である。ただしIは音声パターンのフレーム数、Pは特
徴ベクトルの次元数である。
本発明では、(1)式に示された特徴ベクトル を、ニューラルネットワークを用いて適応化特徴ベクト
に変換する。すなわち、入力層の各ユニット(P個)に
特徴ベクトルの各要素a(i,p)の値が入力されると、
中間層、出力層の各ユニットの出力が計算され、出力層
(P個)の各ユニットに適応化特徴ベクトル(i,p)
の値が出力される。
入力層に与える特徴ベクトルは、以上述べたような1
つのベクトル だけでなく、時刻iの近傍のいくつかのベクトル列 を1度に提示することもできる。このように、特徴ベク
トル変換時に前後数フレームをふくむ特徴ベクトルを入
力層に提示することにより、音素環境を考慮した変換が
可能となる。
次に、このニューラルネットワークの内部パラメータ
(重みw)の学習法について述べる。音声パターンAが
適応すべき音声パターンとして、 があるとする。これは、例えば、音声パターンAと異な
る話者により発声された同一単語とする。まず、音声パ
ターンAとBの間の時間軸の対応を求める。
すなわち、音声パターンAのフレームiに対応する音
声パターンBのフレームjを与えるテーブルj(i)を
求める。これは、引用文献2に述べられている方法と同
様、DPマッチングを用いて求めることができる。また、
この時間軸の対応付けは線形伸縮により、少ない計算量
で求めることができる。すなわち、 j=j(i)=(i×J)/I. (3) により、時間軸の対応付けを求めることができる。
この対応付けの結果を基に、ニューラルネットワーク
の入力層に音声パターン を与え、そのときの望ましい出力値(教師信号)である
対応する音声パターン により近い値を出力するようにニューラルネットワーク
の内部パラメータを学習する。この学習は、引用文献3
に詳しく述べられているバックプロパゲーションを用い
て実行できる。この時、ある程度の量の学習用音声パタ
ーンをくり返し提示して学習を行う。
(実施例) 本願の第1の発明による実施例について図面を参照し
て説明する。第1図は第1の発明の一実施例を示す構成
図である。まず最初にニューラルネットワーク部10の内
部パラメータを学習する学習フェーズについて説明す
る。
標準パターンメモリ部11中には標準的な話者の音声に
より作成された標準パターンが、あらかじめ保持されて
いる。まず、使用者である特定話者の音声パターン(学
習パターン)を学習パターンメモリ部12内に読み込む。
この学習パターンは、標準パターンを構成する一部(ま
たは全部)の単語よりなる音声パターンである。
時間軸整合部13では、標準パターンメモリ部11より読
み出した標準パターンAと、学習パターンメモリ部12よ
り読み出した、同一単語の学習パターンBとを、DPマッ
チング法をもちいて時間軸の対応を求め、標準パターン
Aの特徴ベクトルa(i)に対応する学習パターンBの
特徴ベクトルb(j(i))を求める。学習制御部14
は、特徴ベクトルb(j(i))が入力されると、ま
ず、読み出し制御部15に対しフレーム番号iが出力され
る。読み出し制御部15からの制御信号k(i−e≦k≦
i+e)により、標準パターンメモリ部11から、フレー
ム番号iの近傍の標準パターンa(k)が読み出され
る。この標準パターンa(k),(i−e≦k≦i+
e)がニューラルネットワーク部10に入力されると、学
習制御部14は、特徴ベクトルb(j(i))を教師信号
として、ニューラルネットワーク部10の内部パラメータ
を更新して学習をすすめる。この学習アルゴリズムとし
ては、引用文献3に詳しく述べられているバックプロパ
ゲーションを用いる。
以上述べた学習操作を全ての学習パターンBに対し、
繰り返し実行することにより、ニューラルネットワーク
部10の内部パラメータの学習を進める。ニューラルネッ
トワーク部10の学習が完了すると、標準パターンメモリ
部11内の全ての標準パターンAは、ニューラルネットワ
ーク部10により変換され、適応化標準パターンとし
て、適応化標準パターンメモリ部16に保持される。以上
で学習フェーズは終了する。
認識フェーズでは、入力された前記特定話者の音声パ
ターンXは、認識部17において、適応化標準パターンメ
モリ16内の適応化標準パターンをもとに認識され、結
果Rが出力される。認識方法としては、例えば、引用文
献1に述べられているようなDPマッチング法を用いる。
適応化標準パターンは、すでに特定話者に対して適応
化されているので、認識時には特別な処理は必要ない。
この適応化標準パターンメモリ部16を持たずに、認識
時、標準パターンを読み出す時にニューラルネットワー
ク部10で変換することも可能である。
続いて、本願の第2の発明による実施例について図面
を参照して説明する。
第2図は第2の発明の一実施例を示す構成図である。
まず最初にニューラルネットワーク部20の内部パラメー
タを学習する学習フェーズについて説明する。
標準パターンメモリ部21中には標準的な話者の音声に
より作成された標準パターンが、あらかじめ保持されて
いる。まず、使用者である特定話者の音声パターン(学
習パターン)を学習パターンメモリ部22内に読み込む。
この学習パターンは、標準パターンを構成する一部(ま
たは全部)の単語よりなる音声パターンである。
時間軸整合部23では、標準パターンメモリ部21より読
み出した標準パターンBと、学習パターンメモリ部22よ
り読み出した、同一単語の学習パターンAとを、DPマッ
チング法をもちいて時間軸の対応を求め、学習パターン
Aの特徴ベクトルa(i)に対応する標準パターンBの
特徴ベクトルb(j(i))を求める。学習制御部24
は、特徴ベクトルb(j(i))が入力されると、ま
ず、読み出し制御部25に対しフレーム番号iが出力され
る。読み出し制御部25からの制御信号k(i−e≦k≦
i+e)により、学習パターンメモリ部22から、フレー
ム番号iの近傍の標準パターンa(k)が読み出され
る。この標準パターンa(k),(i−e≦k≦i+
e)がニューラルネットワーク部20に入力されると、学
習制御部24は、特徴ベクトルb(j(i))を教師信号
として、ニューラルネットワーク部20の内部パラメータ
を更新して学習をすすめる。この学習アルゴリズムとし
ては、引用文献3に詳しく述べられているバックプロパ
ゲーションを用いる。
以上述べた学習操作を全ての学習パターンAに対し、
繰り返し実行することにより、ニューラルネットワーク
部20の内部パラメータの学習を進める。ニューラルネッ
トワーク部20の学習が完了すると、学習フェーズは終了
する。
認識フェーズでは、入力された前記特定話者の音声パ
ターンXは、ニューラルネットワーク部20に入力され、
適応化音声パターンに変換される。この適応化音声パ
ターンは、認識部26において、標準パターンメモリ部
21内の標準パターンBをもとに認識され、結果Rが出力
される。認識方法としては、例えば、引用文献1に述べ
られているようなDPマッチング法を用いる。
第2の発明によれば、認識時に入力された音声パター
ンをニューラルネットワークにより変換する必要がある
が、認識語彙の変更等により標準パターンを変更した場
合でも、標準パターンを変換しなおす必要はない。この
ため、認識対象語彙を頻繁に変更する場合は有利であ
る。
(発明の効果) 本発明によれば、新しい話者や環境に、少量の発声に
より適応でき、かつ高性能な適応型音声認識装置を実現
できる。
【図面の簡単な説明】
第1図は、本願の第1の発明の一実施例を示す構成図。 第2図は、本願の第2の発明の一実施例を示す構成図。 第3図は、ニューラルネットワークの構造を示す図であ
る。

Claims (4)

    (57)【特許請求の範囲】
  1. 【請求項1】標準的な音声パターンである標準パターン
    を保持する標準パターンメモリ部と、前記標準パターン
    を適応化標準パターンに変換するニューラルネットワー
    ク部と、入力された音声パターンである入力パターンを
    前記適応化標準パターンを用いて認識する認識部と、前
    記ニューラルネットワーク部を学習する場合、入力され
    た学習パターンと前記標準パターンの時間軸の対応付け
    を行う時間軸整合部と、前記標準パターンを前記ニュー
    ラルネットワーク部に入力した際に出力すべきパターン
    を与える教師信号として前記時間軸に対応付けられた時
    刻点の学習パターンを用いて前記ニューラルネットワー
    ク部の学習を制御する学習制御部とを有する適応型音声
    認識装置。
  2. 【請求項2】標準的な音声パターンである標準パターン
    を保持する標準パターンメモリ部と、入力された音声パ
    ターンである入力パターンを適応化音声パターンに変換
    するニューラルネットワーク部と、前記適応化音声パタ
    ーンを前記標準パターンを用いて認識する認識部と、前
    記ニューラルネットワーク部を学習する場合、入力され
    た学習パターンと前記標準パターンの時間軸の対応付け
    を行う時間軸整合部と、前記学習パターンを前記ニュー
    ラルネットワーク部に入力した際に出力すべきパターン
    を与える教師信号として前記時間軸が対応付けられた時
    刻点の標準パターンを用いて前記ニューラルネットワー
    ク部の学習を制御する学習制御部とを有する適応型音声
    認識装置。
  3. 【請求項3】前記適応化標準パターンを保持する適応化
    標準パターンメモリ部を有する請求項1記載の適応型音
    声認識装置。
  4. 【請求項4】学習時に、前記ニューラルネットワーク部
    の入力に、教師信号と対応する時刻点の近傍の時間にお
    ける音声パターンを提示する読み出し制御部を有する請
    求項1、2または3記載の適応型音声認識装置。
JP63122559A 1988-05-18 1988-05-18 適応型音声認識装置 Expired - Fee Related JP2733955B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP63122559A JP2733955B2 (ja) 1988-05-18 1988-05-18 適応型音声認識装置
EP89108844A EP0342630B1 (en) 1988-05-18 1989-05-17 Speech recognition with speaker adaptation by learning
DE68912397T DE68912397T2 (de) 1988-05-18 1989-05-17 Spracherkennung mit Sprecheranpassung durch Lernprozess.
US07/688,715 US5150449A (en) 1988-05-18 1991-04-23 Speech recognition apparatus of speaker adaptation type

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63122559A JP2733955B2 (ja) 1988-05-18 1988-05-18 適応型音声認識装置

Publications (2)

Publication Number Publication Date
JPH01291298A JPH01291298A (ja) 1989-11-22
JP2733955B2 true JP2733955B2 (ja) 1998-03-30

Family

ID=14838890

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63122559A Expired - Fee Related JP2733955B2 (ja) 1988-05-18 1988-05-18 適応型音声認識装置

Country Status (4)

Country Link
US (1) US5150449A (ja)
EP (1) EP0342630B1 (ja)
JP (1) JP2733955B2 (ja)
DE (1) DE68912397T2 (ja)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH067348B2 (ja) * 1989-04-13 1994-01-26 株式会社東芝 パタン認識装置
JP2896799B2 (ja) * 1990-04-18 1999-05-31 富士写真フイルム株式会社 放射線画像読取条件及び/又は画像処理条件決定装置
JPH04233063A (ja) * 1990-12-28 1992-08-21 Matsushita Electric Ind Co Ltd ニューロプロセッサ
JP3014177B2 (ja) * 1991-08-08 2000-02-28 富士通株式会社 話者適応音声認識装置
FR2704348B1 (fr) * 1993-04-23 1995-07-07 Matra Communication Procede de reconnaissance de parole a apprentissage.
US5805771A (en) * 1994-06-22 1998-09-08 Texas Instruments Incorporated Automatic language identification method and system
JP2768274B2 (ja) * 1994-09-08 1998-06-25 日本電気株式会社 音声認識装置
JP3399674B2 (ja) * 1994-12-19 2003-04-21 エヌイーシーインフロンティア株式会社 画面制御装置とその方法
JP3008799B2 (ja) * 1995-01-26 2000-02-14 日本電気株式会社 音声適応化装置,単語音声認識装置,連続音声認識装置およびワードスポッティング装置
US5960395A (en) * 1996-02-09 1999-09-28 Canon Kabushiki Kaisha Pattern matching method, apparatus and computer readable memory medium for speech recognition using dynamic programming
DE19806941A1 (de) * 1998-02-19 1999-08-26 Univ Ilmenau Tech Verfahren zur Sprecheradaption von Merkmalsreferenzen
US6343267B1 (en) 1998-04-30 2002-01-29 Matsushita Electric Industrial Co., Ltd. Dimensionality reduction for speaker normalization and speaker and environment adaptation using eigenvoice techniques
US6263309B1 (en) 1998-04-30 2001-07-17 Matsushita Electric Industrial Co., Ltd. Maximum likelihood method for finding an adapted speaker model in eigenvoice space
IL145285A0 (en) * 1999-03-11 2002-06-30 British Telecomm Speaker recognition
US6418411B1 (en) * 1999-03-12 2002-07-09 Texas Instruments Incorporated Method and system for adaptive speech recognition in a noisy environment
US6571208B1 (en) 1999-11-29 2003-05-27 Matsushita Electric Industrial Co., Ltd. Context-dependent acoustic models for medium and large vocabulary speech recognition with eigenvoice training
US6526379B1 (en) 1999-11-29 2003-02-25 Matsushita Electric Industrial Co., Ltd. Discriminative clustering methods for automatic speech recognition
EP1172802B1 (de) * 2000-07-14 2007-08-08 Siemens Aktiengesellschaft Sprecherabhängige Adaption der phonetischen Transkriptionen eines Aussprache-Lexikons
US7003465B2 (en) * 2000-10-12 2006-02-21 Matsushita Electric Industrial Co., Ltd. Method for speech recognition, apparatus for the same, and voice controller
US7006969B2 (en) * 2000-11-02 2006-02-28 At&T Corp. System and method of pattern recognition in very high-dimensional space
US7369993B1 (en) 2000-11-02 2008-05-06 At&T Corp. System and method of pattern recognition in very high-dimensional space
EP1215659A1 (en) * 2000-12-14 2002-06-19 Nokia Corporation Locally distibuted speech recognition system and method of its operation
JP3885523B2 (ja) * 2001-06-20 2007-02-21 日本電気株式会社 サーバ・クライアント型音声認識装置及び方法
US7797158B2 (en) * 2007-06-20 2010-09-14 At&T Intellectual Property Ii, L.P. System and method for improving robustness of speech recognition using vocal tract length normalization codebooks
US9235799B2 (en) 2011-11-26 2016-01-12 Microsoft Technology Licensing, Llc Discriminative pretraining of deep neural networks
US9477925B2 (en) 2012-11-20 2016-10-25 Microsoft Technology Licensing, Llc Deep neural networks training for speech and pattern recognition
US9401148B2 (en) 2013-11-04 2016-07-26 Google Inc. Speaker verification using neural networks
US9620145B2 (en) 2013-11-01 2017-04-11 Google Inc. Context-dependent state tying using a neural network
US9514753B2 (en) 2013-11-04 2016-12-06 Google Inc. Speaker identification using hash-based indexing
US9786270B2 (en) 2015-07-09 2017-10-10 Google Inc. Generating acoustic models
US9697824B1 (en) * 2015-12-30 2017-07-04 Thunder Power New Energy Vehicle Development Company Limited Voice control system with dialect recognition
US10229672B1 (en) 2015-12-31 2019-03-12 Google Llc Training acoustic models using connectionist temporal classification
US10013973B2 (en) 2016-01-18 2018-07-03 Kabushiki Kaisha Toshiba Speaker-adaptive speech recognition
GB2558629B (en) * 2017-01-11 2019-08-07 Toshiba Kk Speaker-adaptive speech recognition
CN108701452B (zh) * 2016-02-02 2023-09-26 日本电信电话株式会社 音频模型学习方法、语音识别方法、音频模型学习装置、语音识别装置及记录介质
US20180018973A1 (en) 2016-07-15 2018-01-18 Google Inc. Speaker verification
US10706840B2 (en) 2017-08-18 2020-07-07 Google Llc Encoder-decoder models for sequence to sequence mapping

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3191150A (en) * 1962-10-30 1965-06-22 Ibm Specimen identification system with adaptive and non-adaptive storage comparators
US3287649A (en) * 1963-09-09 1966-11-22 Research Corp Audio signal pattern perception device
US4618984A (en) * 1983-06-08 1986-10-21 International Business Machines Corporation Adaptive automatic discrete utterance recognition
US4720802A (en) * 1983-07-26 1988-01-19 Lear Siegler Noise compensation arrangement
JPS62231993A (ja) * 1986-03-25 1987-10-12 インタ−ナシヨナル ビジネス マシ−ンズ コ−ポレ−シヨン 音声認識方法
US4805225A (en) * 1986-11-06 1989-02-14 The Research Foundation Of The State University Of New York Pattern recognition method and apparatus
US4876731A (en) * 1988-02-19 1989-10-24 Nynex Corporation Neural network model in pattern recognition using probabilistic contextual information

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
日本音響学会講演論文集 (平成元年3月) 1−6−16,P.31〜32
電子情報通信学会春季全国大会 (平成元年) D−544,P.6−264

Also Published As

Publication number Publication date
EP0342630B1 (en) 1994-01-19
EP0342630A2 (en) 1989-11-23
US5150449A (en) 1992-09-22
JPH01291298A (ja) 1989-11-22
DE68912397T2 (de) 1994-06-01
EP0342630A3 (en) 1990-03-07
DE68912397D1 (de) 1994-03-03

Similar Documents

Publication Publication Date Title
JP2733955B2 (ja) 適応型音声認識装置
JP4109063B2 (ja) 音声認識装置及び音声認識方法
JPH08234788A (ja) 音声認識のバイアス等化方法および装置
WO2006128496A1 (en) Method of adapting a neural network of an automatic speech recognition device
WO2007117814A2 (en) Voice signal perturbation for speech recognition
US5758021A (en) Speech recognition combining dynamic programming and neural network techniques
US5864809A (en) Modification of sub-phoneme speech spectral models for lombard speech recognition
US5745872A (en) Method and system for compensating speech signals using vector quantization codebook adaptation
US5943647A (en) Speech recognition based on HMMs
JP2898568B2 (ja) 声質変換音声合成装置
Roucos et al. A stochastic segment model for phoneme-based continuous speech recognition
Lee et al. Isolated word recognition using modular recurrent neural networks
JP2003330484A (ja) 音声認識装置及び音声認識方法
JPH10254473A (ja) 音声変換方法及び音声変換装置
Fontaine et al. Speaker-dependent speech recognition based on phone-like units models-application to voice dialling
Huang et al. An SNR-incremental stochastic matching algorithm for noisy speech recognition
Lee The conversational computer: an apple perspective.
JP3652753B2 (ja) 発声変形音声認識装置及び音声認識方法
JPH05232989A (ja) 音響モデルの話者適応化法
Takahashi et al. Interactive voice technology development for telecommunications applications
JP3036706B2 (ja) 音声認識方法
JP3003353B2 (ja) タスク適応標準パターン学習装置
JP3406672B2 (ja) 話者適応化装置
JPH0822296A (ja) パターン認識方法
JP3256979B2 (ja) 音響モデルの入力音声に対する尤度を求める方法

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees