JP2000330587A - 音声認識方法および装置 - Google Patents

音声認識方法および装置

Info

Publication number
JP2000330587A
JP2000330587A JP11141548A JP14154899A JP2000330587A JP 2000330587 A JP2000330587 A JP 2000330587A JP 11141548 A JP11141548 A JP 11141548A JP 14154899 A JP14154899 A JP 14154899A JP 2000330587 A JP2000330587 A JP 2000330587A
Authority
JP
Japan
Prior art keywords
noise
pattern
environment
voice
stored
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11141548A
Other languages
English (en)
Other versions
JP3434730B2 (ja
Inventor
Takashi Yokomizo
隆司 横溝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP14154899A priority Critical patent/JP3434730B2/ja
Publication of JP2000330587A publication Critical patent/JP2000330587A/ja
Application granted granted Critical
Publication of JP3434730B2 publication Critical patent/JP3434730B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Navigation (AREA)

Abstract

(57)【要約】 【課題】 突発的な環境の変化や複数の環境が交互に現
れるといった環境に対応できる音声認識装置を提供す
る。 【解決手段】 マイク10より入力された音声は、音声
取込み部12で音声の切出しが行われ、分析部14で特
徴の抽出が行われる。音声検出部16で、分析開始から
音声の始端検出までの入力信号をもとに、背景雑音パタ
ーンの検出を行う。検出された背景雑音パターンを、或
る閾値をインデクスとしてn個に分割した環境学習デー
タ格納部26へ保管する。これにより、雑音環境毎に適
した環境学習データを蓄積する。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、音声認識方法およ
び装置に関し、特に環境を学習する機能(環境適応)を
持った音声認識において、極端に異なる環境へ急激に遷
移した場合、直前の環境に対応する雑音パターンを蓄え
ておくことにより、急激な認識性能の低下を防止するよ
うにした音声認識方法および装置に関する。
【0002】
【従来の技術】音声認識装置を、非定常雑音の多い環境
で使用する場合、例えば、車載のカーナビゲーション装
置に音声入力で指示するような場合、背景雑音が存在す
るため一般に認識率が低下する。このような環境におい
て認識率を向上させるには、雑音パターンの学習が有効
であることが知られている。
【0003】特に非定常雑音の多い環境で使用される音
声認識の雑音学習方式が、特開平5−46196号公報
に開示されている。この公報に記載の雑音学習方式によ
れば、過去の入力音声パターンから非定常雑音を含む複
数の雑音パターンを学習し、非定常雑音が付加された入
力音声を正しく認識することを目的としたものであり、
非音声区間と判断されたパターンから、定常雑音および
非定常雑音を環境学習している。これを雑音パターン記
憶部に登録し、次に入力された音声に対し、抽出された
音声の特徴と標準パターンとのマッチング処理を行うと
きに、過去の環境学習によって作られ情報を加味し、マ
ッチング処理を行っている。これにより、非定常雑音の
多い環境でも高い認識率が維持可能となる。
【0004】このような方式では、雑音学習は繰り返す
ほどに環境へ収束し、効果が向上するが、複数の雑音環
境が交互に出現する場合には、学習を収束させることが
できない。このため、突発的な環境の変化や複数の環境
が交互に現れるといった環境に対応できず、環境が変化
すると認識性能が低下する。
【0005】このような環境の変化に対応するように、
対雑音性能を向上させた音声認識としては、特開平3−
127099号公報に記載のものが知られている。この
公報に記載の技術によれば、複数の標準パターン記憶手
段のうち、周囲雑音のレベルに適した重みを有する雑音
成分を付加した単語音声の標準パターン群を記憶した標
準パターン記憶手段を選択することにより、音声認識装
置がさまざまな周囲雑音の場所に設置された場合でも、
認識率が向上するようにしている。
【0006】
【発明が解決しようとする課題】前記特開平5−461
96号公報に記載の音声認識装置は、前述したように環
境が変化した場合には認識率が低下するという問題があ
り、また前記特開平3−127099号公報に記載の音
声認識装置では、突発的な環境変化に対応するために
は、さまざまな周囲雑音のレベルに適した重みを有する
雑音成分を付加した単語音声の多量の標準パターン群を
記憶した標準パターンを予め準備しておかなければいけ
ないという問題がある。
【0007】本発明の目的は、雑音成分を付加した標準
パターンを予め準備するのではなく、複数の特定レベル
で区分された雑音パターンのみを学習により、あるいは
予め準備しておくことにより、突発的な環境の変化や複
数の環境が交互に現れるといった環境に対応できる音声
認識装置および方法を提供することにある。
【0008】
【課題を解決するための手段】本発明によれば、マイク
より入力された音声は、音声の切出し,特徴の抽出が行
われる。ここで音声を切出す際に、分析開始から音声の
始端検出までの入力信号をもとに、背景雑音パターンの
検出を行う。検出された背景雑音パターンを、或る閾値
をインデクスとしてn個に分割した環境学習データへ保
管する。これにより、雑音環境毎に適した環境学習デー
タを蓄積する。
【0009】音声の認識は、抽出された音声の特徴と、
標準パターンとをマッチング処理することにより行う。
このとき、n種類ある環境学習データの中から、認識時
の背景雑音レベルに最も近い雑音レベルを持った環境学
習データを用いて、マッチング処理を行う。これによ
り、急激に環境が変わった場合、複数の環境が交互に現
れる場合などでも、認識率の向上を図ることが可能とな
る。
【0010】
【発明の実施の形態】
【0011】
【第1の実施例】図1は、本発明の第1の実施例の音声
認識装置の構成を示す図である。図2は、本実施例の音
声認識処理を示すフローチャートである。本実施例で
は、マイクを1本用い、この1本のマイクにより背景雑
音の含まれた音声を取り込むものとする。
【0012】図1および図2を参照して本実施例の音声
認識装置の構成およびその動作を説明する。なお図3
に、本実施例における背景雑音を含む入力音声の波形を
示す。この入力音声波形は、分析が開始される最初のフ
レームである第1フレームに背景雑音のみ存在し、第2
フレームの途中から音声が始まっている状態を示してい
る。
【0013】マイクからの入力は、入力に先立って入力
開始ボタン等からの入力開始信号(不図示)によって開
始される場合もあり、また、常に入力状態にあって、音
声入力を識別する手段(不図示)によって音声と判断で
きる入力があると音声認識動作を開始する場合もある
が、前者の場合には、入力開始から音声入力開始までに
間隔があるのが通例であり、また、後者の場合には、音
声認識に先立つ入力も記憶しておくのが通例であり、い
ずれの場合にも、音声入力に先立って、背景雑音のみが
存在している時間があることになる。
【0014】マイク10より入力されたアナログの音声
は、音声取込み部12に入力される。音声取込み部12
では、背景雑音を含む入力音声を、ある微小一定時間
(例えば20mS)のフレーム単位で取り込み(ステッ
プS1)、デジタル化を行う。デジタル化された入力音
声は、分析部14に入力される。分析部14では、フレ
ーム単位で特徴の抽出を行う(ステップS2)。特徴の
抽出は、フィルタバンク分析,線形予測分析,離散フー
リエ変換分析等により行うことができる。抽出された特
徴は、入力パターンとして、音声検出部16へ入力さ
れ、音声検出処理される(ステップS3)。
【0015】音声検出部16では、入力パターンについ
て、一定の閾値以上の値のパワーが一定時間以上継続し
たか否かで、音声であるか非音声であるかを判定する
(ステップS4)。すなわち、一定の閾値以上の値のパ
ワーが一定時間以上継続した場合には、音声であるとす
る。音声ならば、入力パターンを認識部18に送り、非
音声ならば入力パターンを雑音環境検出部20へ送る。
【0016】図3の入力音声波形では、第1フレームは
背景雑音のみであるので、入力パターンは雑音環境検出
部20へ送られる。
【0017】雑音環境検出部20では、入力パターンに
ついてのSN比(フレーム内音声区間と背景雑音区間の
SN比),雑音レベル(背景雑音区間のレベル),また
は周波数成分(背景雑音区間の周波数成分)の情報よ
り、雑音パターンを検出し、検出された雑音パターンの
レベルから、雑音環境種別を検出する(ステップS
5)。雑音環境種別は、或る閾値をインデックスとして
区分されたn個の種別に分けられている。
【0018】また、雑音環境検出部20から、雑音パタ
ーンが環境学習部24に送られ、環境学習部24では、
送られてきた雑音パターンを学習し、雑音パターンを前
記雑音環境種別に対応するn個の環境学習データ格納部
26−1,26−2,…,26−nのいずれかに格納す
る(ステップS6)。一方、検出された雑音環境種別
は、雑音環境種別格納部22に格納される(ステップS
7)。
【0019】音声検出部16では、第1フレームは背景
雑音のみであるか否かを判断する(ステップS8)。こ
の場合、背景雑音のみであるので処理は終了する。
【0020】第2フレームでは、音声検出部16は、初
めの部分は背景雑音のみが、続いて音声が入力されてい
ると判断する。ステップS5で第2フレームの背景雑音
により雑音環境種別を検出した後、ステップS8で、第
2フレームは、背景雑音のみではないと判断して、処理
はステップS9に進む。
【0021】ステップS9において、雑音環境検出部2
0が環境種別読出し部28を指示して、第1フレームの
背景雑音にもとづいて雑音環境種別格納部22に格納さ
れている環境種別を読出し(ステップS9)、対応する
雑音パターンが格納されている環境学習データ格納部2
6−1,26−2,…,26−nのいずれかを選択す
る。選択された格納部から雑音パターンが読出されて認
識部18に供給される。
【0022】一方、標準パターン格納部30には、予め
多数話者の音声から抽出・学習した音声単位の標準パタ
ーンが格納されており、認識部18では、音声検出部1
6の出力する第2フレームの入力パターンから雑音パタ
ーンを減算する(ステップS10)。
【0023】認識部18では、入力パターンから雑音パ
ターンを減算したものと、標準パターンとを比較し、そ
の類似度を算出する。すなわちマッチング処理を行う
(ステップS11)。
【0024】以降、第3フレーム,第4フレーム,…に
ついても同様の処理をして、音声認識を行う。
【0025】本実施例によれば、種々の雑音パターン
が、学習によりそのレベルにより区分されて、それぞれ
対応する格納部に環境学習データとして保存されている
ので、例えばカーナビゲーション装置を搭載した車が走
行している場合、道路の状態や、トンネルを通過すると
きなど背景雑音が急激に変化した場合に、現在の認識時
の背景雑音に近い環境学習データを読出し、これを参照
してマッチング処理を行うことができるので、認識率の
低下を防止することが可能となる。
【0026】
【第2の実施例】図4は、本発明の第2の実施例の音声
認識装置の構成を示す図である。この音声認識装置の構
成は、図1の音声認識装置とほぼ同じであるが、環境種
別読出し部28が、音声検出部16から指示される点が
異なっている。図5は、本実施例の音声認識処理を示す
フローチャートである。
【0027】本実施例では、マイクを1本用い、この1
本のマイクにより背景雑音の含まれた音声を取り込むも
のとする。この実施例が、第1の実施例と異なる点は、
認識処理の第1番目のフレームでは、音声が入力される
以前に必ず背景雑音区間が存在するという前提で、第1
フレーム目の先頭で検出した背景雑音を、認識処理全て
に適応させることである。図6は、背景雑音を含む入力
音声の波形を示す図である。この波形は、第1フレーム
に背景雑音が必ず存在している状態を示している。
【0028】音声取込部12が1本のマイク10より図
6に示す波形の背景雑音を含む音声を取込むと(ステッ
プS1)、分析部14は、第1フレームから特徴の抽出
を行う(ステップS2)。第1フレームの特徴は、入力
パターンとして、音声検出部16へ入力され、音声検出
処理される(ステップS3)。
【0029】音声検出部16では、現在処理しているフ
レームが第1フレーム目であるか否かを判断する(ステ
ップS4)。第1フレーム目であるので、雑音環境検出
部20では、雑音パターンを検出し、検出された雑音パ
ターンのレベルから、雑音環境種別を検出する(ステッ
プS5)。
【0030】また、雑音環境検出部20から雑音パター
ンが環境学習部24に送られ、環境学習部24では、送
られてきた雑音パターンを学習し、雑音パターンを対応
する環境学習データ格納部26−1,26−2,…,2
6−nのいずれかに格納する(ステップS6)。一方、
検出された雑音種別環境は、雑音環境種別格納部22に
格納される(ステップS7)。
【0031】音声検出部16では、第1フレームは背景
雑音のみであるか否かを判断する(ステップS8)。こ
の場合、背景雑音のみであるので処理は終了する。も
し、音声が続いているならば、ステップS9へ進む。
【0032】第2フレームでは、ステップS4で第1フ
レームではないと判断され、ステップS9に進む。ステ
ップS9において、音声検出部16は第1フレームの背
景雑音に基づいて既に検出されている雑音環境種別によ
り環境種別読出し部28を指示して、雑音環境種別格納
部22に格納されている環境種別を読出し(ステップS
9)、対応する雑音パターンが格納されている環境学習
データ格納部26−1,26−2,…,26−nのいず
れかが選択される。選択された格納部から雑音パターン
が読出されて認識部18に供給される。認識部18で
は、音声検出部16の出力する入力パターンから雑音パ
ターンを減算する(ステップS10)。
【0033】認識部18では、入力パターンから雑音パ
ターンを減算したものと、標準パターンとを比較し、そ
の類似度を算出する。すなわちマッチング処理を行う
(ステップS11)。
【0034】本実施例では、第1フレームに必ず存在す
る背景雑音により背景種別を検出し、第2フレーム以降
では、雑音環境種別の検出を行わないので、第1の実施
例に比べて処理が簡単になるという利点がある。
【0035】
【第3の実施例】図7は、本発明の第3の実施例の音声
認識装置の構成を示す図である。図8は、本実施例の音
声認識処理を示すフローチャートである。本実施例で
は、音声入力用マイク10a(以下、音声マイクとい
う)、背景雑音入力用マイク10b(以下、雑音マイク
という)の2本のマイクを用いて取り込むものとする。
【0036】本実施例の動作を、図7および図8を参照
して説明する。なお、図9は、音声マイクの入力波形,
雑音マイクに波形をそれぞれ示している。
【0037】音声取込部12が音声マイク10aおよび
雑音マイク10bにより図8(a),(b)に示す波形
の背景雑音を含む音声と背景雑音とを取込むと(ステッ
プS1)、分析部14は、それぞれの波形についてフレ
ーム単位で特徴の抽出を行う(ステップS2)。音声マ
イク10aから得られた特徴は、音声検出部16へ、雑
音マイク10bから得られた特徴は、雑音環境検出部2
0へ送られる。
【0038】雑音環境検出部20では、雑音マイクから
得た特徴に基づいて、雑音環境種別を検出する。この検
出は、SN比(音声マイクと雑音マイクとのSN比),
雑音レベル(雑音マイクへの入力レベル),または周波
数成分(雑音マイク信号の周波数分析結果)の情報よ
り、雑音パターンを検出し、検出された雑音パターンの
レベルから、雑音環境種別を検出する(ステップS
3)。
【0039】また、雑音環境検出部20から、雑音パタ
ーンが環境学習部24に送られ、環境学習部24では、
送られてきた雑音パターンを学習し、雑音パターンを対
応する環境学習データ格納部26−1,26−2,…,
26−nのいずれかに格納する(ステップS4)。一
方、検出された雑音環境種別は、雑音環境種別格納部2
2に格納される(ステップS5)。
【0040】音声検出部16は、音声マイクから得られ
た特徴に基づいて、音声が入力されていると判断すると
(ステップS6)、雑音マイク10bにより取込まれ、
ステップS3で検出されている雑音種々に基づき環境種
別読出し部28を指示して、雑音環境種別格納部22に
格納されている環境種別を読出し(ステップS7)、対
応する雑音パターンが格納されている環境学習データ格
納部26−1,26−2,…,26−nのいずれかが選
択される。選択された格納部から雑音パターンが読出さ
れて、認識部18に供給される。認識部18では、音声
検出部16の出力する入力パターンから雑音パターンを
減算する(ステップS8)。
【0041】認識部18では、入力パターンから雑音パ
ターンを減算したものと、標準パターンとを比較し、そ
の類似度を算出する。すなわちマッチング処理を行う
(ステップS9)。
【0042】以上の実施例では、背景雑音を専用の雑音
マイクで取込むようにしているので、音声検出部では、
音声のみの検出を行えばよく、処理が簡単になるという
利点がある。また、雑音マイクを取付ける位置は、音声
を取込まないような箇所を選択することにより、より正
確な背景雑音を学習することができるので認識率がさら
に向上する。
【0043】以上の3つの実施例では、環境学習により
雑音パターンを格納するが、学習によることなく、初期
値として予め得た雑音パターンを格納部26−1,26
−2,…,26−nに格納しておくこともできる。この
場合には、環境学習部24は不要となる。
【0044】
【発明の効果】本発明によれば、環境学習データをその
環境の種類毎に複数のデータベースとして保持してお
き、認識処理時に、その時の環境状態に一番適切な環境
学習データを用いて認識処理を行うため、急激に環境が
変わった場合、複数の環境が交互に現れる場合などで
も、認識率の向上を図ることができる。
【図面の簡単な説明】
【図1】本発明の第1の実施例の音声認識装置の構成を
示す図である。
【図2】第1の実施例の動作説明のためのフローチャー
トである。
【図3】背景雑音を含む入力音声の波形を示す図であ
る。
【図4】本発明の第2の実施例の音声認識装置の構成を
示す図である。
【図5】第2の実施例の動作説明のためのフローチャー
トである。
【図6】背景雑音を含む入力音声の波形を示す図であ
る。
【図7】本発明の第3の実施例の音声認識装置の構成を
示す図である。
【図8】第3の実施例の動作説明のためのフローチャー
トである。
【図9】音声マイクの入力波形,雑音マイクの波形をそ
れぞれ示す図である。
【符号の説明】
10 マイク 12 音声取込み部 14 分析部 16 音声検出部 18 認識部 20 雑音環境検出部 22 雑音環境種別格納部 24 環境学習部 26 環境学習データ格納部
フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 15/28 G10L 3/02 301D 21/02 // G01C 21/00

Claims (11)

    【特許請求の範囲】
  1. 【請求項1】背景雑音を含む音声を認識する方法におい
    て、 予めあるいは学習により、或る閾値で区分された雑音パ
    ターンを複数種類保存し、音声認識処理を行う際に、そ
    れら複数種類の雑音パターンの中から最も適したものを
    選択して使用することを特徴とする音声認識方法。
  2. 【請求項2】前記音声認識処理を行う際に、前記選択さ
    れた雑音パターンに基づいて、入力パターンを補正し、
    これを予め保存されている標準パターンとパターンマッ
    チングすることを特徴とする請求項1記載の音声認識方
    法。
  3. 【請求項3】前記雑音パターンを学習により保存する場
    合には、背景雑音のみが存在する入力パターンから雑音
    パターンを検出し、検出された雑音パターンのレベルか
    ら雑音環境種別を検出し得られた雑音環境種別を保存
    し、かつ、前記検出された雑音パターンを学習して、学
    習した雑音パターンを、前記推定された雑音環境種別に
    対応させて保存することを特徴とする請求項1または2
    記載の音声認識方法。
  4. 【請求項4】前記音声認識処理を行う際に、前記保存さ
    れた複数種類の雑音パターンは、前記保存された雑音環
    境種別を読出し、読出された雑音環境種別に基づいて、
    選択することを特徴とする請求項3記載の音声認識方
    法。
  5. 【請求項5】背景雑音を含む音声を認識する装置におい
    て、 予めあるいは学習により、或る閾値で区分された雑音パ
    ターンを複数種類保存し、音声認識処理を行う際に、そ
    れら複数種類の雑音パターンの中から最も適したものを
    選択して使用することを特徴とする音声認識装置。
  6. 【請求項6】前記音声認識処理を行う際に、前記選択さ
    れた雑音パターンを、入力パターンから減算し、これを
    予め保存されている標準パターンとパターンマッチング
    することを特徴とする請求項5記載の音声認識装置。
  7. 【請求項7】前記雑音パターンを学習により保存する場
    合には、背景雑音のみが存在する入力パターンから雑音
    パターンを検出し、検出された雑音パターンのレベルか
    ら雑音環境種別を検出し得られた雑音環境種別を保存
    し、かつ、前記検出された雑音パターンを学習して、学
    習した雑音パターンを、前記推定された雑音環境種別に
    対応させて保存することを特徴とする請求項5または6
    記載の音声認識装置。
  8. 【請求項8】前記音声認識処理を行う際に、前記保存さ
    れた複数種類の雑音パターンは、前記保存された雑音環
    境種別を読出し、読出された雑音環境種別に基づいて、
    選択することを特徴とする請求項7記載の音声認識装
    置。
  9. 【請求項9】1本のマイクから背景雑音を含む音声を取
    込む音声取込み部と、 取込まれた前記音声から特徴を抽出して入力パターンと
    して出力する分析部と、 前記入力パターンについて音声であるか非音声であるか
    を判定する音声検出部と、 非音声である場合には、前記入力パターンから雑音パタ
    ーンを検出し、雑音パターンのレベルから雑音環境種別
    を検出する雑音環境検出部と、 検出された雑音環境種別を格納する雑音環境種別格納部
    と、 複数個の環境学習データ格納部と、 前記雑音パターンを学習し、雑音パターンを、前記雑音
    環境種別に対応する前記環境学習データに格納する環境
    学習部と、 前記雑音環境検出部が検出する雑音環境種別に基づい
    て、前記雑音環境種別格納部に格納されている雑音環境
    種別を読出し、対応する前記環境学習データ格納部を選
    択する環境種別読出し部と、 前記音声検出部から出力される入力パターンから前記選
    択された環境学習データ格納部から読出された雑音パタ
    ーンを減算して、予め格納されている標準パターンとパ
    ターンマッチングする認識部と、を備えることを特徴と
    する音声認識装置。
  10. 【請求項10】1本のマイクから背景雑音を含む音声を
    取込む音声取込み部と、 取込まれた前記音声から特徴を抽出して入力パターンと
    して出力する分析部と、 前記入力パターンについて、第1フレームであるか否か
    を判定する音声検出部と、 第1フレームである場合には、前記入力パターンから雑
    音パターンを検出し、雑音パターンのレベルから雑音環
    境種別を検出する雑音環境検出部と、 検出された雑音環境種別を格納する雑音環境種別格納部
    と、 複数個の環境学習データ格納部と、 前記雑音パターンを学習し、雑音パターンを、前記雑音
    環境種別に対応する前記環境学習データに格納する環境
    学習部と、 前記音声検出部が、前記入力パターンは第2フレーム目
    以降であることを検出すると、前記雑音環境種別格納部
    に格納されている雑音環境種別を読出し、対応する前記
    環境学習データ格納部を選択する環境種別読出し部と、 前記音声検出部から出力される入力パターンから前記選
    択された環境学習データ格納部から読出された雑音パタ
    ーンを減算して、予め格納されている標準パターンとパ
    ターンマッチングする認識部と、を備えることを特徴と
    する音声認識装置。
  11. 【請求項11】第1のマイクから背景雑音を含む音声
    と、第2のマイクから背景雑音とを取込む音声取込み部
    と、 取込まれた前記音声および背景雑音から特徴を抽出して
    入力パターンとして出力する分析部と、 第2のマイクからの前記入力パターンから雑音パターン
    を検出し、雑音パターンのレベルから雑音環境種別を検
    出する雑音環境検出部と、 検出された雑音環境種別を格納する雑音環境種別格納部
    と、 複数個の環境学習データ格納部と、 前記雑音パターンを学習し、雑音パターンを、前記雑音
    環境種別に対応する前記環境学習データに格納する環境
    学習部と、 第1のマイクからの前記入力パターンから音声入力であ
    ると判断する音声検出部と、 前記雑音環境検出部が検出する雑音環境種別に基づい
    て、前記雑音環境種別格納部に格納されている雑音環境
    種別を読出し、対応する前記環境学習データ格納部を選
    択する環境種別読出し部と、 前記音声検出部から出力される入力パターンから前記選
    択された環境学習データ格納部から読出された雑音パタ
    ーンを減算して、予め格納されている標準パターンとパ
    ターンマッチングする認識部と、を備えることを特徴と
    する音声認識装置。
JP14154899A 1999-05-21 1999-05-21 音声認識方法および装置 Expired - Fee Related JP3434730B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14154899A JP3434730B2 (ja) 1999-05-21 1999-05-21 音声認識方法および装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14154899A JP3434730B2 (ja) 1999-05-21 1999-05-21 音声認識方法および装置

Publications (2)

Publication Number Publication Date
JP2000330587A true JP2000330587A (ja) 2000-11-30
JP3434730B2 JP3434730B2 (ja) 2003-08-11

Family

ID=15294537

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14154899A Expired - Fee Related JP3434730B2 (ja) 1999-05-21 1999-05-21 音声認識方法および装置

Country Status (1)

Country Link
JP (1) JP3434730B2 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002182688A (ja) * 2000-12-18 2002-06-26 Seiko Epson Corp 音声認識を用いた機器制御方法および音声認識を用いた機器制御システム
US7209881B2 (en) 2001-12-20 2007-04-24 Matsushita Electric Industrial Co., Ltd. Preparing acoustic models by sufficient statistics and noise-superimposed speech data
WO2009038136A1 (ja) * 2007-09-19 2009-03-26 Nec Corporation 雑音抑圧装置、その方法及びプログラム
US7813921B2 (en) 2004-03-31 2010-10-12 Pioneer Corporation Speech recognition device and speech recognition method
US8300834B2 (en) 2005-07-15 2012-10-30 Yamaha Corporation Audio signal processing device and audio signal processing method for specifying sound generating period
KR101628112B1 (ko) * 2014-12-08 2016-06-08 현대자동차 주식회사 차량의 음성인식을 위한 노이즈 제거 장치 및 방법
JP2016180833A (ja) * 2015-03-24 2016-10-13 株式会社Jvcケンウッド 雑音低減装置、雑音低減方法及びプログラム
CN111739550A (zh) * 2019-03-25 2020-10-02 恩智浦有限公司 用于语音增强的音频处理***
JPWO2019142427A1 (ja) * 2018-01-16 2020-11-19 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
JPWO2021014649A1 (ja) * 2019-07-25 2021-01-28
CN113010119A (zh) * 2021-04-27 2021-06-22 宏图智能物流股份有限公司 一种通过主备方式实现语音数据分布式存储的方法
WO2024039102A1 (ko) * 2022-08-18 2024-02-22 삼성전자주식회사 혼합 음원으로부터 타겟 음원을 분리하는 방법 및 그 전자 장치

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002182688A (ja) * 2000-12-18 2002-06-26 Seiko Epson Corp 音声認識を用いた機器制御方法および音声認識を用いた機器制御システム
US7209881B2 (en) 2001-12-20 2007-04-24 Matsushita Electric Industrial Co., Ltd. Preparing acoustic models by sufficient statistics and noise-superimposed speech data
US7813921B2 (en) 2004-03-31 2010-10-12 Pioneer Corporation Speech recognition device and speech recognition method
US8300834B2 (en) 2005-07-15 2012-10-30 Yamaha Corporation Audio signal processing device and audio signal processing method for specifying sound generating period
JP5388447B2 (ja) * 2005-07-15 2014-01-15 ヤマハ株式会社 発音期間を特定する音信号処理装置および音信号処理方法
WO2009038136A1 (ja) * 2007-09-19 2009-03-26 Nec Corporation 雑音抑圧装置、その方法及びプログラム
JPWO2009038136A1 (ja) * 2007-09-19 2011-01-06 日本電気株式会社 雑音抑圧装置、その方法及びプログラム
JP5483000B2 (ja) * 2007-09-19 2014-05-07 日本電気株式会社 雑音抑圧装置、その方法及びプログラム
KR101628112B1 (ko) * 2014-12-08 2016-06-08 현대자동차 주식회사 차량의 음성인식을 위한 노이즈 제거 장치 및 방법
JP2016180833A (ja) * 2015-03-24 2016-10-13 株式会社Jvcケンウッド 雑音低減装置、雑音低減方法及びプログラム
JPWO2019142427A1 (ja) * 2018-01-16 2020-11-19 ソニー株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
JP7234926B2 (ja) 2018-01-16 2023-03-08 ソニーグループ株式会社 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム
CN111739550A (zh) * 2019-03-25 2020-10-02 恩智浦有限公司 用于语音增强的音频处理***
JPWO2021014649A1 (ja) * 2019-07-25 2021-01-28
JP7218810B2 (ja) 2019-07-25 2023-02-07 日本電信電話株式会社 音声非音声判定装置、音声非音声判定用モデルパラメータ学習装置、音声非音声判定方法、音声非音声判定用モデルパラメータ学習方法、プログラム
CN113010119A (zh) * 2021-04-27 2021-06-22 宏图智能物流股份有限公司 一种通过主备方式实现语音数据分布式存储的方法
WO2024039102A1 (ko) * 2022-08-18 2024-02-22 삼성전자주식회사 혼합 음원으로부터 타겟 음원을 분리하는 방법 및 그 전자 장치

Also Published As

Publication number Publication date
JP3434730B2 (ja) 2003-08-11

Similar Documents

Publication Publication Date Title
CN111816218B (zh) 语音端点检测方法、装置、设备及存储介质
EP1058925B1 (en) System and method for noise-compensated speech recognition
EP1159737B9 (en) Speaker recognition
US8326610B2 (en) Producing phonitos based on feature vectors
JP2768274B2 (ja) 音声認識装置
JP2006079079A (ja) 分散音声認識システム及びその方法
CN112927694B (zh) 一种基于融合声纹特征的语音指令合法性判别方法
JPH0990974A (ja) 信号処理方法
CN112397065A (zh) 语音交互方法、装置、计算机可读存储介质及电子设备
JP3451146B2 (ja) スペクトルサブトラクションを用いた雑音除去システムおよび方法
JP2000330587A (ja) 音声認識方法および装置
JP3493033B2 (ja) 音声認識用回路装置
JP3069531B2 (ja) 音声認識方法
KR100429896B1 (ko) 잡음 환경에서의 음성신호 검출방법 및 그 장치
JPH04318900A (ja) 多方向同時収音式音声認識方法
CN116612754A (zh) 一种应用于车辆的语音指令识别方法及装置
KR100574883B1 (ko) 비음성 제거에 의한 음성 추출 방법
JP3322491B2 (ja) 音声認識装置
JP3484559B2 (ja) 音声認識装置および音声認識方法
JP2891259B2 (ja) 音声区間検出装置
JP4391031B2 (ja) 音声認識装置
JP3450972B2 (ja) パターン認識装置
JPH0651792A (ja) 音声認識装置
JP2901976B2 (ja) パターン照合予備選択方式
JPS63132300A (ja) 音声認識方法及び装置

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees