JPH06161488A - 音声認識装置 - Google Patents

音声認識装置

Info

Publication number
JPH06161488A
JPH06161488A JP4330896A JP33089692A JPH06161488A JP H06161488 A JPH06161488 A JP H06161488A JP 4330896 A JP4330896 A JP 4330896A JP 33089692 A JP33089692 A JP 33089692A JP H06161488 A JPH06161488 A JP H06161488A
Authority
JP
Japan
Prior art keywords
voice
spotting
group
recognition
keyword
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4330896A
Other languages
English (en)
Inventor
Tetsuya Muroi
哲也 室井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP4330896A priority Critical patent/JPH06161488A/ja
Publication of JPH06161488A publication Critical patent/JPH06161488A/ja
Pending legal-status Critical Current

Links

Abstract

(57)【要約】 【目的】 スポッティングに要する時間や処理量を著し
く低減でき、効率良くかつ信頼性良く音声認識を行なう
ことができる。 【構成】 この音声認識装置は、発声された音声を入力
する音声入力部1と、該音声入力部1から入力された音
声中から少なくとも1つ以上のキーワードを抽出するス
ポッティング部6とを有している。また、抽出対象とし
てのキーワードが複数のグループに分類されてキ−ワ−
ド保持部4に保持されており、また、各グループの認識
順序が認識順序規則として定められて認識順序規則保持
部5に保持されている。スポッティング部6は、該認識
順序規則に従った順序でグループを認識対象語彙として
入力音声に対しスポッティングを行ない、入力音声から
キーワードを順次に抽出する。これにより、最小限のス
ポッティング回数で入力音声中からキーワードを効率良
くかつ信頼性良く抽出できる。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、発声された音声をワー
ドスポッティングによって認識する音声認識装置に関す
る。
【0002】
【従来の技術】発声された音声の音声区間全体を隙間な
く(1字1句)認識するのではなく、音声をワードスポ
ッティングによって認識する手法は、不用語の付加やポ
ーズなどの問題を避けることができ、音声対話システム
や音声理解システムに向いていることが知られている。
【0003】文献「日本音響学会講演論文集(平成4年
3月,p139〜140)」には、この種のワードスポ
ッティングによって音声を認識する技術が示されてお
り、この文献の技術は、抽出対象としての全てのキーワ
ードに対してスポッティングを行なって、ワードラティ
ス(どの単語が音声区間のどこから(始端)どこまで
(終端)にスコアが何点で存在するか)を算出し、その
後キーワードの組合せを構文的に解析して、発声された
音声中のキーワードの組を認識するようになっている。
【0004】
【発明が解決しようとする課題】しかしながら、上述し
た従来の音声認識の手法では、構文や意味などの言語的
な制約なしに、抽出対象である全てのキーワードに対し
てワードスポッティングを実行するようになっていたの
で、スポッティングに相当の計算時間を要し、また、処
理量が多く、さらには信頼性の良い認識結果を得ること
ができないという欠点があった。
【0005】本発明は、スポッティングに要する時間や
処理量を著しく低減することができ、効率良くかつ信頼
性良く音声認識を行なうことの可能な音声認識装置を提
供することを目的としている。
【0006】
【課題を解決するための手段および作用】上記目的を達
成するために、請求項1乃至請求項3記載の発明は、発
声された音声を入力する音声入力手段と、該音声入力手
段から入力された音声中から少なくとも1つ以上のキー
ワードを抽出するスポッティング手段とを有する音声認
識装置において、抽出対象としてのキーワードが複数の
グループに分類され、また、各グループの認識順序が認
識順序規則として定められており、前記スポッティング
手段は、該認識順序規則に従った順序でグループを認識
対象語彙として入力音声に対しスポッティングを行な
い、入力音声からキーワードを順次に抽出することを特
徴としている。これにより、最小限のスポッティング回
数で入力音声中からキーワードを効率良くかつ信頼性良
く抽出することができる。
【0007】また、請求項4記載の発明は、入力音声中
からキーワードを抽出する際に、上記スポッティング手
段が、すでにスポッティング抽出のなされたキーワード
の存在する音声区間を除外した音声区間をスポッティン
グすべき音声区間の範囲とすることを特徴としている。
これにより、スポッティングを行なう領域を狭くするこ
とができ、キーワードをより効率良くかつ信頼性良く抽
出することができて、認識効率をより向上させることが
できる。
【0008】また、請求項5乃至請求項7記載の発明
は、上記認識順序規則に従ってグループを認識対象語彙
としてスポッティングを行なった際、抽出されたキーワ
ードのスコアが予め定められた閾値以下であった場合に
は、使用者に所定のメッセージを出力するメッセージ出
力手段がさらに設けられていることを特徴としている。
これにより、使用者との間で対話を進め、正しい認識を
行なうことができる。
【0009】また、請求項8記載の発明は、上記複数の
グループの少なくとも1つのグループに、前回の認識結
果が誤まりであることを示すキーワードが含まれている
ことを特徴としている。これにより、認識効率をより向
上させることができる。
【0010】また、請求項9記載の発明は、上記複数の
グループの少なくとも1つのグループに、対話を中断し
てやり直すことを示すキーワードが含まれていることを
特徴としている。これにより、使用者が対話を中断する
ためのキーワード,例えば「エスケープ」を発声した場
合には、最初に機能語のグループのスポッティングを行
なって、「エスケープ」が抽出された時点で即座に認識
装置の状態を最初に戻すので、無駄なスポッティングを
行なうことがなく、効率の良い処理を行なうことができ
る。
【0011】
【実施例】以下、本発明の一実施例を図面に基づいて説
明する。図1は本発明に係る音声認識装置の一実施例の
ブロック図である。図1を参照すると、この音声認識装
置は、音声を入力するマイクロフォンや受話器などの音
声入力部1と、入力された音声を特徴ベクトルの時系列
に変換する特徴抽出部2と、特徴抽出結果に基づき音韻
や音節,VCV(母音−子音−母音)などの音声の基本
単位を認識する基本単位認識部3と、ワードスポッティ
ングを行なうためのキーワードが複数のグループに分類
されて格納されているキーワード保持部4と、複数のグ
ループに対する認識順序規則が保持されている認識順序
規則保持部5と、認識順序規則保持部5に保持されてい
る認識順序規則に従いグループを選択し、このグループ
に属するキーワードをキーワード保持部4から抽出する
スポッティング部6と、メッセージが保持されているメ
ッセージ保持部7と、スポッティング部6の抽出結果に
応じて、メッセージ保持部7から所定のメッセージを取
り出し、出力するメッセージ出力部8とを有している。
【0012】図2はキーワード保持部4の具体的な構成
例を示す図である。この例では、キーワード保持部4
は、同種類の意味を持つキーワードを1つのグループに
まとめ、各グループごとにキーワードを保持するように
なっている。より具体的には、用件,人物,場所,日
付,時間を表わすキーワードをそれぞれ1つのグループ
にしている。また、このキーワード保持部4には、対話
をやり直すことを示す言葉や前回の認識結果が誤ってい
ることを示す言葉の集合である機能語を表わすキーワー
ド[エスケープ」,「違います」,「誤認識していま
す」も1つのグループにして保持されている。なお、
「エスケープ」は、対話を中断してやり直すことを示す
キーワードであり、また、「違います」,「誤認識して
います」は、前回の認識結果が誤まりであることを示す
キーワードである。
【0013】図3には、「時間」のグループに属するキ
ーワードの保持例が示されており、この例では、「1時
半」,「2時半」,「3時半」等の時間についてのキー
ワードが、音声の基本単位として音節をアークとする1
つのオートマトンで記述され、保持されている。
【0014】また、図4は認識順序規則保持部5の具体
的な構成例を示す図である。この例では、認識順序規則
保持部5には、キーワードごとに認識順序規則が記述さ
れている。すなわち、認識すべき音声が第1回目(すな
わち最初)の発声であれば、「用件」を最初にスポッテ
ィングし、第1回目の発声以外の発声(例えば第2回目
の発声)であれば「機能語」をスポッティングするよう
な認識順序規則が保持されており、また、「用件」を示
すキーワード(会議,年休)ごとに、次以降、どのグル
ープをスポッティングすべきかの認識順序規則が保持さ
れている。例えば、「会議」のキーワードでは、「場
所」の次に「日付」,「日付」の次に「時間」というよ
うな順序規則が保持されている。スポッティング部6で
は、このような順序規則に従ってグループを特定し、そ
のグループを認識対象語彙としてスポッティングを行な
い(例えばそのグループ内のオートマトンを認識対象と
してスポッティングを行ない)、所定のキーワードを抽
出するようになっている。また、この際、スポッティン
グ部6は、すでにスポッティングされたキーワードの存
在する区間を除外した音声区間をスポッティングすべき
音声区間の範囲とするようになっている。なお、ここ
で、「順序」とは、上述の説明からもわかるように、入
力音声中に出現するキーワードの時間的位置のことでは
なく、音声認識装置が入力音声に対して、スポッティン
グを試みる順序のことである。
【0015】また、図5はメッセージ保持部7の具体的
な構成例を示す図である。この例では、各グループごと
にメッセージが保持されている。このメッセージは、上
記認識対象のグループの中のキーワードの発声を使用者
に促すものであり、例えば、「用件」のグループには、
「御用件をどうぞ」のメッセージが用意されている。メ
ッセージ出力部8は、スポッティング部6において上記
順序規則に従って上記グループを認識対象語彙としてス
ポッティングを行なった際、抽出されたキーワードのス
コアが予め定められた閾値以下であったり、あるいはキ
ーワードを抽出できなかった場合に、そのグループに対
応したメッセージをメッセージ保持部7から取り出し、
使用者に対し出力するようになっている。
【0016】次にこのような構成の音声認識装置の処理
動作について説明する。音声入力部1から話者の音声が
入力すると、特徴抽出部2では、この音声を特徴ベクト
ルの時系列に変換する。より具体的には、特徴抽出部2
は、例えばバンドパスフィルタ群によるスペクトラムや
LPCケプストラムなどの音声認識用の特徴ベクトルに
変換する。
【0017】次いで、基本単位認識部3では、音声の基
本単位を認識する。例えば音節を音声の基本単位として
認識する。この場合、認識された結果(スコア)は音節
ラティスと呼ばれるもので、cv_rst(cv,i
s,dur)の形式の配列に格納される。ここで、cv
は音節番号,isは音節の開始フレーム番号,durは
音節の継続フレーム数を表している。この音節ラティス
は、後述のスポッティング部6の計算の前に全て計算し
ても良いし、また、スポッティング部6で必要になった
際に逐次計算しても良い。また、音節ラティスの具体的
な計算方法は、音節ごとに標準パターンを持ってDPマ
ッチングによって計算する方法や、音節ごとにHMM
(Hidden Markov Model)を用意して認識する方法な
ど、様々な手法を用いることができる。
【0018】スポッティング部6では、オートマトン制
御によって音節ラティスを接続してオートマトン上の最
適な1パスを求め、これを抽出したキーワードとする。
なお、オートマトンを用いて制御する方法は、従来知ら
れており、例えば、次式に示す漸化式を用いて、累積ス
コアS(i,j)を計算し、オートマトンの終端ノード
で最も大きなスコアを持つマッチングパスを認識結果
(スポッティング結果)とすることができる。
【0019】
【数1】
【0020】ここで、iは入力音声のフレーム番号、j
はオートマトンのノード番号、S(i,j)は入力音声
の第iフレームがオートマトンの第jノードに到達した
マッチングパスの累積スコアである。また、j’は第j
ノードの親のノード番号であり、cv’は第j’ノード
と第jノードを結ぶアーク(音節)であり、rst(c
v’,i−dur,dur)は上述の音節の認識結果で
ある。
【0021】ところで、本実施例では、抽出対象として
のキーワードを複数のグループに分類して、このグルー
プの認識すべき順序を定めた認識順序規則に従ってキー
ワードのスポッティングを行なうことにより、最小限の
スポッティング回数で音声中からキーワードを抽出する
ことができ、発声された音声の意味を効率良く理解する
ことができる。従って、これを例えばスケジュール管理
装置に適用した場合、効率の良いスケジュール管理を行
なうことができる。
【0022】第1の例として、入力音声が図6(a)の
ようなものであり、これが、第1発声(第1回目の発
声)であった場合には、スポッティング部6は、認識順
序規則保持部5に保持されている図4に示すような認識
順序規則に従って「用件」のグループを認識対象とし、
キーワード保持部4に保持されている図2に示すような
グループとキーワードとの対応表を用いて、「用件」の
グループから所定のキーワードの抽出,すなわちスポッ
ティングを行なう。すなわち、図6(a)の音声区間
(領域A)のうちで、「用件」のグループを認識対象と
して認識を行ない、その結果、領域Bの区間においてキ
ーワード「会議」が抽出されたとする。この場合には、
以後の認識順序は図4の認識順序規則においてキーワー
ド「会議」を条件とし、「場所」,「日付」,「時間」
のグループ順に定められる。すなわち、第1番目に、
「場所」のグループを認識対象として、図6の〔A−
B〕の領域でスポッティングを行なう。この結果、領域
Cの区間にキーワード「第1会議室」が抽出されると、
第2番目に、「日付」のグループを認識対象として、図
6の〔A−(B+C)〕の領域でスポッティングを行な
う。この結果、領域Dの区間にキーワード「明後日」が
抽出されると、第3番目に、「時間」のグループを認識
対象として、図6の〔A−(B+C+D)〕の領域でス
ポッティングを行なうというような仕方で、認識順序規
則に従って、順次にスポッティングを行なうことができ
る。
【0023】また、第2の例として、入力音声が図6
(b)のようなものである場合、この入力音声に対して
は、用件が「年休」であるということが認識さえできれ
ば、図4の認識順序規則に従って、次に認識すべきは
「日付」のグループのみであり、「場所」や「時間」な
どのグループを認識対象としてスポッティングを試みる
ことはない。このようにスポッティングを行なう領域を
狭くすることができるので、不必要なスポッティングが
なされることなく、最小限のスポッティング回数で音声
中からキーワードを抽出することができる。また、スポ
ッティングを行なう領域を狭くし、認識対象を限定する
ことにより信頼性の高い結果を効率良く得ることができ
る。
【0024】このようにして得られた認識結果が使用者
の意図するものでなく、違っている場合、あるいは誤認
識している場合には、使用者は、「違います。…」,
「誤認識しています。…」などの機能語を次に発声す
る。例えば、上述の第1の例において、使用者が第1回
目の発声で「第1会議室」と発声したにもかかわらず、
これが「第2会議室」と誤認識された場合には、使用者
は、次に、「違います。第1会議室です。」,あるい
は、「誤認識しています。第1会議室です。」のように
発声する。
【0025】この入力音声は、第1回目の発声ではな
く、次に発声された音声であるので、スポッティング部
6では、図4の認識順序規則に従って、「機能語」のス
ポッティングを試みる。すなわち、対話をやり直す言葉
や前回の認識結果が誤まっていることを示す言葉につい
てのスポッティングを試みる。ここで、「違います」あ
るいは「誤認識しています」のキーワードが抽出できた
場合には、図4の認識順序規則に従い、前回の認識対象
を認識する。すなわち、第1の例では、前回の認識結果
のキーワードのグループ「用件」,「場所」,「日付」
のスポッティングを試みる。この結果、「用件」のグル
ープの次の「場所」のグループにおいて、「第1会議
室」のキーワードを抽出することができる。この場合に
も、「日付」,「時間」のグループを認識対象とするこ
となく、「場所」のグループのみにおいて、目的とする
キーワードを抽出できるので、スポッティング回数を低
減し、また信頼性ある認識結果を得ることができる。
【0026】すなわち、従来では、認識結果が誤まって
いて、使用者が訂正することも考慮すると、今回認識す
べき対象(すなわち「場所」)と前回の認識対象(すな
わち「用件」,「日付」,「時間」)との全てを認識対
象,すなわち抽出対象としなければならないが、本発明
によれば、最初に認識誤まりを示すキーワード(違いま
す,誤認識してます,…)が抽出できた場合のみ、前回
認識できなかった対象のみを認識するようにしている。
このため、「違いますよ、第1会議室ですよ」のような
入力音声に対して、「時間」のグループを認識対象とす
ることもなく、効率の良い認識を行なうことができる。
【0027】また、本実施例では、図4の認識順序規則
に従ってスポッティングを行なった結果、あるグループ
のスポッティングに失敗した場合(認識できなかった場
合と、入力音声中に実際になかった場合とを含む)に、
このグループを発声するように使用者に促すメッセージ
を単純な構造で(対話の履歴を考慮することなく)出力
するようにしている。具体的には、上述の第1の例にお
いて、「用件」として「会議」が抽出され、「場所」と
して「第1会議室」が抽出され、「日付」として「明後
日」が抽出されたが、「時間」=「2時」のスコアが所
定の閾値以下であったとする。このとき、メッセージ出
力部8では、「時間」のグループが認識できなかったの
で、メッセージ保持部7から「時間」の欄のメッセージ
「時間は何時ですか?」を出力し、使用者に対し、次の
発声では、「時間」を表わす言葉を発声するように促
す。
【0028】これにより、使用者が「時間」に関する発
声を行なうと、この入力音声は、第1回目の発声ではな
く、次に発声された音声であるので、スポッティング部
6では、図4の認識順序規則に従って、機能語のスポッ
ティングを試みる。例えば、使用者が「ええと、2時で
すよ」と発声したとする。しかしながら、この入力音声
には、「機能語」が含まれておらず、従って、スポッテ
ィング部6は、「機能語」を抽出できない。このように
「機能語」を抽出できないときには、スポッティング部
6は、前回の認識においてスコアが所定の閾値以下のキ
ーワードの属するグループを認識対象としてスポッティ
ングを試みる。すなわち、上述の例では、「時間」のグ
ループを認識対象としてスポッティングを試みる。これ
により、「2時」をキーワードとして抽出することがで
きる。この場合にも、前回の認識対象である「用件」,
「場所」,「日付」のグループを認識の対象としないの
で、効率の良いかつ信頼性の良い認識を行なうことがで
きる。
【0029】このようにして、装置との間で普通の対話
を続けて、正しい結果を効率良く得ることができる。
【0030】また、使用者が対話を中断したい場合に
は、使用者は「エスケープ」と発声すれば良い。「エス
ケープ」と発声した場合には、最初に機能語のグループ
のスポッティングがなされ、「エスケープ」が抽出され
た時点で即座に認識装置の状態を最初に戻す。これによ
り、無駄なスポッティングを行なうことを防止すること
ができる。
【0031】
【発明の効果】以上に説明したように、請求項1乃至請
求項3記載の発明によれば、キーワードを複数のグルー
プに分類し、各グループの認識すべき順序を定めた認識
順序規則に従って入力音声に対しスポッティングを行な
いキーワードを抽出するようになっているので、最小限
のスポッティング回数で入力音声中からキーワードを効
率良くかつ信頼性良く抽出することができる。
【0032】また、請求項4記載の発明によれば、入力
音声の区間内ですでに抽出されたキーワードの区間を除
いて、次に認識すべきグループのスポッティングを行な
うようにしているので、スポッティングを行なう領域を
狭くすることができ、これにより、キーワードをより効
率良くかつ信頼性良く抽出することができ、認識効率を
より向上させることができる。
【0033】また、請求項5乃至請求項7記載の発明に
よれば、認識順序規則に従って順にスポッティングを行
ない、スポッティングを行なったが認識できなかったも
のについて、使用者にメッセージを出力するようにして
いるので、使用者との間で対話を進め、正しい認識を行
なうことができる。
【0034】また、請求項8記載の発明によれば、認識
結果に誤まりがあったキーワードの属するグループのみ
を認識対象とするので、認識効率をより向上させること
ができる。
【0035】また、請求項9記載の発明によれば、使用
者が対話を中断するためのキーワード,例えば「エスケ
ープ」を発声した場合には、最初に機能語のグループの
スポッティングを行なって、「エスケープ」が抽出され
た時点で即座に認識装置の状態を最初に戻すので、無駄
なスポッティングを行なうことがなく、効率の良い処理
を行なうことができる。
【図面の簡単な説明】
【図1】本発明に係る音声認識装置の一実施例のブロッ
ク図である。
【図2】キーワード保持部の具体的な構成例を示す図で
ある。
【図3】「時間」のグループに属するキーワードの保持
例を示す図である。
【図4】認識順序規則保持部の具体的な構成例を示す図
である。
【図5】メッセージ保持部の具体的な構成例を示す図で
ある。
【図6】(a),(b)は入力音声の一例を示す図であ
る。
【符号の説明】
1 音声入力部 2 特徴抽出部 3 基本単位認識部 4 キーワード保持部 5 認識順序規則保持部 6 スポッティング部 7 メッセージ保持部 8 メッセージ出力部

Claims (9)

    【特許請求の範囲】
  1. 【請求項1】 発声された音声を入力する音声入力手段
    と、該音声入力手段から入力された音声中から少なくと
    も1つ以上のキーワードを抽出するスポッティング手段
    とを有する音声認識装置において、抽出対象としてのキ
    ーワードが複数のグループに分類され、また、各グルー
    プの認識順序が認識順序規則として定められており、前
    記スポッティング手段は、該認識順序規則に従った順序
    でグループを認識対象語彙として入力音声に対しスポッ
    ティングを行ない、入力音声からキーワードを順次に抽
    出するようになっていることを特徴とする音声認識装
    置。
  2. 【請求項2】 請求項1記載の音声認識装置において、
    音声の基本単位を認識する音声基本単位認識手段を有
    し、この場合に、前記各グループ内のキーワードは、音
    声の基本単位をアークとするオートマトンにより各グル
    ープごとに記述されており、前記スポッティング手段
    は、入力音声に対し認識順序規則に従った順序でグルー
    プを認識対象語彙としてスポッティングを行ない入力音
    声からキーワードを抽出する際、1つのグループ内の前
    記オートマトン上の最適なパスを求めて、該グループ内
    のキーワードの抽出を行なうようになっていることを特
    徴とする音声認識装置。
  3. 【請求項3】 請求項1記載の音声認識装置において、
    前記認識順序規則は、キーワードごとに記述されている
    ことを特徴とする音声認識装置。
  4. 【請求項4】 請求項1記載の音声認識装置において、
    前記スポッティング手段は、入力音声中からキーワード
    を抽出する際に、すでにスポッティング抽出のなされた
    キーワードの存在する音声区間を除外した音声区間をス
    ポッティングすべき音声区間の範囲とすることを特徴と
    する音声認識装置。
  5. 【請求項5】 請求項1記載の音声認識装置において、
    前記認識順序規則に従ってグループを認識対象語彙とし
    てスポッティングを行なった際、抽出されたキーワード
    のスコアが予め定められた閾値以下であった場合には、
    使用者に所定のメッセージを出力するメッセージ出力手
    段がさらに設けられていることを特徴とする音声認識装
    置。
  6. 【請求項6】 請求項5記載の音声認識装置において、
    使用者に出力する前記メッセージは、グループごとに予
    め定められて保持されていることを特徴とする音声認識
    装置。
  7. 【請求項7】 請求項5記載の音声認識装置において、
    使用者に出力する前記メッセージは、スコアが予め定め
    られた閾値以下であったキーワードの属するグループ内
    のキーワードを再度発声するように利用者に促すメッセ
    ージであることを特徴とする音声認識装置。
  8. 【請求項8】 請求項1記載の音声認識装置において、
    前記複数のグループの少なくとも1つのグループには、
    前回の認識結果が誤まりであることを示すキーワードが
    含まれていることを特徴とする音声認識装置。
  9. 【請求項9】 請求項1記載の音声認識装置において、
    前記複数のグループの少なくとも1つのグループには、
    対話を中断してやり直すことを示すキーワードが含まれ
    ていることを特徴とする音声認識装置。
JP4330896A 1992-11-17 1992-11-17 音声認識装置 Pending JPH06161488A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4330896A JPH06161488A (ja) 1992-11-17 1992-11-17 音声認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4330896A JPH06161488A (ja) 1992-11-17 1992-11-17 音声認識装置

Publications (1)

Publication Number Publication Date
JPH06161488A true JPH06161488A (ja) 1994-06-07

Family

ID=18237715

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4330896A Pending JPH06161488A (ja) 1992-11-17 1992-11-17 音声認識装置

Country Status (1)

Country Link
JP (1) JPH06161488A (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5799275A (en) * 1995-06-22 1998-08-25 The Japan Iron And Steel Federation Speech recognizing device and method assuming a current frame is an end point of a current reference pattern
JP2001005488A (ja) * 1999-06-18 2001-01-12 Mitsubishi Electric Corp 音声対話システム
JP2002006878A (ja) * 2000-06-07 2002-01-11 Sony Internatl Europ Gmbh 音声フレーズ認識方法及び音声認識装置
JP2016024379A (ja) * 2014-07-22 2016-02-08 Necパーソナルコンピュータ株式会社 情報処理装置、その制御方法及びプログラム
CN109584865A (zh) * 2018-10-17 2019-04-05 平安科技(深圳)有限公司 一种应用程序控制方法、装置、可读存储介质及终端设备

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5799275A (en) * 1995-06-22 1998-08-25 The Japan Iron And Steel Federation Speech recognizing device and method assuming a current frame is an end point of a current reference pattern
JP2001005488A (ja) * 1999-06-18 2001-01-12 Mitsubishi Electric Corp 音声対話システム
JP2002006878A (ja) * 2000-06-07 2002-01-11 Sony Internatl Europ Gmbh 音声フレーズ認識方法及び音声認識装置
JP2016024379A (ja) * 2014-07-22 2016-02-08 Necパーソナルコンピュータ株式会社 情報処理装置、その制御方法及びプログラム
CN109584865A (zh) * 2018-10-17 2019-04-05 平安科技(深圳)有限公司 一种应用程序控制方法、装置、可读存储介质及终端设备
CN109584865B (zh) * 2018-10-17 2024-05-31 平安科技(深圳)有限公司 一种应用程序控制方法、装置、可读存储介质及终端设备

Similar Documents

Publication Publication Date Title
US11580991B2 (en) Speaker based anaphora resolution
US11646027B2 (en) Multi-layer keyword detection
US11496582B2 (en) Generation of automated message responses
US20220165268A1 (en) Indicator for voice-based communications
US11361763B1 (en) Detecting system-directed speech
US7974843B2 (en) Operating method for an automated language recognizer intended for the speaker-independent language recognition of words in different languages and automated language recognizer
US10074369B2 (en) Voice-based communications
US10074363B2 (en) Method and apparatus for keyword speech recognition
US8818801B2 (en) Dialogue speech recognition system, dialogue speech recognition method, and recording medium for storing dialogue speech recognition program
US10506088B1 (en) Phone number verification
US11948571B2 (en) Wakeword selection
US20060122837A1 (en) Voice interface system and speech recognition method
US11798559B2 (en) Voice-controlled communication requests and responses
JP2008009153A (ja) 音声対話システム
US7865364B2 (en) Avoiding repeated misunderstandings in spoken dialog system
WO2006083020A1 (ja) 抽出された音声データを用いて応答音声を生成する音声認識システム
US20170270923A1 (en) Voice processing device and voice processing method
WO2018045154A1 (en) Voice-based communications
US11693622B1 (en) Context configurable keywords
EP1213706B1 (en) Method for online adaptation of pronunciation dictionaries
JP2003208196A (ja) 音声対話方法および装置
JPH06161488A (ja) 音声認識装置
KR100622019B1 (ko) 음성 인터페이스 시스템 및 방법
US10854196B1 (en) Functional prerequisites and acknowledgments
KR20100051214A (ko) 화자 독립 음성 인식 처리 방법

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040203