JP2005181439A - 音声認識装置 - Google Patents

音声認識装置 Download PDF

Info

Publication number
JP2005181439A
JP2005181439A JP2003418412A JP2003418412A JP2005181439A JP 2005181439 A JP2005181439 A JP 2005181439A JP 2003418412 A JP2003418412 A JP 2003418412A JP 2003418412 A JP2003418412 A JP 2003418412A JP 2005181439 A JP2005181439 A JP 2005181439A
Authority
JP
Japan
Prior art keywords
speech recognition
recognition processing
processing unit
recognition
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003418412A
Other languages
English (en)
Inventor
Kazuhiko Seguchi
和彦 瀬口
Manabu Sone
学 曽根
Yukio Aso
幸夫 麻生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2003418412A priority Critical patent/JP2005181439A/ja
Publication of JP2005181439A publication Critical patent/JP2005181439A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】高い認識性能と高速な認識処理とを実現する音声認識装置を提供すること。
【解決手段】マイク101を介して入力された発話内容は、第1音声認識処理部103と第2音声認識処理部111において音声認識がなされる。第1音声認識処理部103で認識された結果の類似度が基準値以上であるか否かが判断部110で判断され、基準値以上であれば、第1音声認識処理部103による認識結果を最終的な認識結果として決定する。基準値未満の場合は、第2音声認識処理部111で認識された結果の類似度が基準値以上であるか否かが判断部118にて判断され、基準値以上であれば、第2音声認識処理部111による認識結果を最終的な認識結果として決定する。第2音声認識手段処理部111による音声認識結果の類似度も基準値未満の場合は、認識不能となる。
【選択図】 図1

Description

本発明は、各種機器を音声によって操作するための音声認識装置に関する。
従来から、入力された音声信号のうち、端末側では認識できない音声信号については、そのデータを情報センターへ送信して処理を行う音声信号伝達装置が特許文献1によって知られている。
特開2000−284799号公報
しかしながら、従来の装置においては、情報センターへデータを送ってから結果を得るまでに時間がかかるという問題があった。また、情報センターへの通信ができない環境下では、認識不能な状況に陥ったり、認識性能が著しく低下するという問題が発生していた。
請求項1に記載の音声認識装置は、音声入力手段を介して入力した発話者の発話内容を認識する複数の音声認識処理手段と、複数の音声認識処理手段の認識結果のそれぞれが正しいか否かを判断する判断手段と、判断手段によって正しいと判定された認識結果の中から、所定の条件に基づいて最終的な認識結果を決定する認識結果決定手段とを有することを特徴とする。
本発明によれば、複数の音声認識処理手段を備え、複数の音声認識処理手段による認識結果から最終的な認識結果を決定することにより、従来の装置と比べて高い認識性能を確保することができる。
―第1の実施の形態―
図1は、本発明による音声認識装置の一実施の形態を示すブロック図である。音声認識装置100は、発話者の発話を入力するマイク101と、マイク101から入力された発話内容を認識する第1音声認識処理部103および第2音声認識処理部111と、第1音声認識処理部103または第2音声認識処理部111で認識された認識結果を出力するスピーカー102とを備えている。
第1音声認識処理部103は、マイク101を介して入力されたアナログ音声信号を増幅するアンプ104と、アンプ104にて増幅されたアナログ音声信号をデジタル音声信号に変換するA/Dコンバータ105と、認識結果をスピーカー102に出力する際にデジタル音声信号をアナログ音声信号へ変換するD/Aコンバータ106とを備えている。
第1音声認識処理部103はまた、第1音声認識処理部103による音声認識の認識度に基づいて、認識結果が正しいか否かを判断する判断部110を有している。この判断部110は、RAM108を作業エリアとしてROM107に格納された制御プログラムをCPU109が実行することにより実現される。
第2音声認識処理部111は、第1音声認識処理部103と縦列に接続されている。そして、第1音声認識処理部103と同様に、アンプ112と、A/Dコンバータ113と、D/Aコンバータ114と、ROM115と、RAM116と、CPU117とを備えており、CPU117は、判断部118を有している。
以下、本実施の形態においては、マイク101を介して入力された発話内容を、第1音声認識処理部103と第2音声認識処理部111とで認識し、発話内容と待ち受け単語とがどの程度類似しているかを示す類似度に基づいて、最終的な音声認識結果を決定する。図2は、本実施の形態における音声認識処理のフローチャートである。図2に示す処理は、不図示の音声入力スイッチがオンされると起動するプログラムとして実行される。
図2のステップS10において、発話者が発話すると、発話内容はマイク101で集音され、そのアナログ音声信号はアンプ104および112において所定のレベルに増幅された後、A/Dコンバータ105および113においてデジタル音声信号に変換される。以下、音声認識処理について説明するに際しては、上記変換後のデジタル音声信号を「発話内容」と呼ぶこととする。
ステップS20において、第1音声認識処理部103にて音声認識処理が行われる。すなわち、入力された発話内容とRAM108に格納されている音声認識用の待ち受け単語とがマッチング処理される。待ち受け単語は、発話者が発話する可能性のある複数の単語があらかじめ不図示の待ち受け単語辞書から読み込まれ、RAM108に格納されている。マッチング処理の結果、それぞれの待ち受け単語と発話内容とがどの程度類似しているかを、完全一致を100%としたときの割合で表す類似度が算出される。算出された待ち受け単語ごとの類似度は、RAM108に格納され、判断部110によって最終的な認識結果を決定する際に読み込まれる。
図3は、発話者が「現在地」と発話したときの待ち受け単語と、待ち受け単語ごとの発話内容との類似度について、具体例を示した図である。図3においては、待ち受け単語3aとしてあらかじめ「現在地」、「目的地」「地図」、「電話」がRAM108に格納されており、発話内容「現在地」についてマッチング処理を行った結果を示している。そして、算出された待ち受け単語ごとの類似度3bが図のように格納されている。
ステップS30においては、第2音声認識処理部111による音声認識処理が行われる。ここで、音声認識処理の内容は上述したステップS20における第1音声認識処理部103における処理と同様のため、説明は省略する。
ステップS40においては、ステップS20で第1音声認識処理部103による音声認識処理の結果算出された待ち受け単語ごとの類似度の中から、発話内容との類似度が最大の待ち受け単語を第1音声認識処理部103による音声認識結果として抽出する。例えば図3に示す例においては、符号3cに示す待ち受け単語「現在地」の類似度が83%と最も高いため、待ち受け単語「現在地」が音声認識結果として抽出される。
ステップS50においては、判断部110によって、ステップS40で抽出した音声認識結果の類似度が、所定の基準値以上であるか否かを判断する。所定の基準値とは、第1音声認識処理部103によって音声認識を行うに当たって、認識結果の正確さを保証する最低限の類似度をいい、例えば80%が設定される。よって、類似度が所定の基準値以上であれば、第1音声認識処理部103による音声認識結果は正しいと判断することができ、逆に類似度が所定の基準値以下であれば、第1音声認識処理部103による音声認識結果は誤認識の可能性が高いということができる。
ステップS50において、第1音声認識処理部103による音声認識結果の類似度が、所定の基準値以上である場合には、ステップS60へ進む。ステップS60においては、上述した通り、類似度が基準値以上であれば第1音声認識処理部103による音声認識結果は正しいと判断することができるため、判断部110は、第1音声認識処理部103における認識結果、すなわち図3の例でいえば「現在地」を最終的な認識結果として決定する。これに対して、第1音声認識処理部103による音声認識結果の類似度が、所定の基準値以下である場合には、第1音声認識処理部103による音声認識結果は誤認識である可能性が高いため、ステップS70へ進み、第2音声認識処理部111による認識結果が最終的な認識結果として採用可能か否かを判定する。
ステップS70においては、ステップS40で第1音声認識処理部103において行った音声認識結果の抽出処理と同様の処理を以下のように行う。ステップS30で第2音声認識処理部111による音声認識処理の結果算出された待ち受け単語ごとの類似度の中から、発話内容との類似度が最大の待ち受け単語を第2音声認識処理部111による音声認識結果として抽出する。例えば、第2音声認識処理部111においても、上述した図3に示す例と同様の結果が得られたとすれば、類似度が最大の「現在地」が抽出されることになる。
ステップS80においては、ステップS40で第1音声認識処理部103において行ったのと同様に以下の処理を行う。第2音声認識処理部111の判断部118によって、ステップS70で抽出した音声認識結果の類似度が、所定の基準値以上であるか否かを判断する。上述した通り、類似度が所定の基準値以上であれば、第2音声認識処理部111による音声認識結果は正しいと判断することができ、逆に類似度が所定の基準値以下であれば、第2音声認識処理部111による音声認識結果は誤認識の可能性が高いということができる。
したがって、類似度が所定の基準値以上であれば、判断部118は、第1音声認識処理部103では誤認識が発生した可能性があるが、第2音声認識処理部111では正常に音声認識が行われたと判定し、ステップS90へ進み、第2音声認識処理部111による音声認識結果を最終的な認識結果として決定する。
これに対して、第2音声認識処理部111による音声認識結果の類似度が、所定の基準値以下である場合には、第2音声認識処理部111による音声認識結果も誤認識である可能性が高いため、ステップS100へ進み、本音声認識装置が待ち受ける待ち受け単語の中に、発話者の発話内容に該当する単語が存在しないと判定され、認識不能となる。
ステップS110において、上記の処理により最終的な認識結果として決定された第1音声認識処理部103による認識結果、あるいは第2音声認識処理部111による認識結果は、D/Aコンバータ106および114にてデジタル音声信号からアナログ音声信号に変換される。変換されたアナログ音声信号は、スピーカー102を介して出力される。これにより、認識結果が発話者に通知され、その後、処理を終了する。なお、ステップS100で認識不能とされた場合はその旨がスピーカー102を介して発話者に通知される。
以上のように、本実施の形態によれば、音声認識装置100内に第1音声認識処理部103および第2音声認識処理部111の2つの音声認識処理部を縦列に接続し、それぞれの音声認識結果の類似度に基づいて最終的な認識結果を決定することとした。これにより、音声認識装置100全体の安定性および音声認識の精度を向上することができる。
―変形例1―
第1の実施の形態における音声認識装置においては、第1音声認識処理部103と第2音声認識処理部111の認識能力については特に言及しなかった。この変形例においては、各音声認識処理部の認識能力が異なる場合について特に詳細に説明する。各音声認識処理部の認識能力が異なる場合には、以下のように各音声認識処理部を使い分けることにより、効率よく音声認識を行うことが可能となる。
例えば、第1音声認識処理部103は認識能力が低く、第2音声認識処理部の認識能力が高い場合について説明する。認識能力の低い第1音声認識処理部103には、RAM108にあらかじめそれほど高い認識率を必要としない待ち受け単語(例えば「はい」、「いいえ」などの短い単語)を格納しておく。これに対して、認識能力の高い第2音声認識処理部111には、RAM116にあらかじめ高い認識率を必要とする待ち受け単語(例えば「ひろせ野鳥の森駅」などの長い単語)を格納しておく。
これにより、発話者が高い認識率を必要としない単語を発話した場合には、認識能力の低い第1音声認識処理部103で音声認識がなされ、その認識結果が最終的な認識結果として決定される。また、発話者が高い認識率を必要とする単語を発話した場合には、当該単語を待ち受け単語に有していない第1音声認識処理部103では発話内容に該当する待ち受け単語がないため、音声認識の結果、認識不能となり、必然的に認識能力の高い第2音声認識処理部111にて音声認識されることになる。これにより、第2音声認識処理部111による認識結果が最終的な認識結果として決定される。
このように、各音声認識処理部の認識能力が異なる場合には、高い認識率を必要とする単語と、それほど高い認識率を必要としない単語を区別してそれぞれの音声認識処理部に待ち受け単語として格納することとした。このため、各音声認識処理部は、その認識能力に合った単語の認識を行えばよくなり、効率よく、さらに高速に音声認識を行うことができる。また、双方に異なった待ち受け単語を格納することから、多くの単語を待ち受け可能とする。
―変形例2−
変形例1においては、各音声認識処理部のRAMに格納する待ち受け単語は、それぞれの音声認識処理部の認識能力に基づいて異なったものを格納した。これに対して、この変形例においては、それぞれの音声認識処理部の認識能力が異なるものの、各音声認識処理部のRAMに格納する待ち受け単語の全てもしくは一部は共通なものとする。
各音声認識処理部のRAMに格納する待ち受け単語の全てもしくは一部を共通なものとする場合、特に高い認識率を必要とする待ち受け単語については、両方の音声認識処理部に格納しておく。そして、第1音声認識処理部103における認識結果が判断部110により類似度が基準値以下と判定された場合には第2音声認識処理部111にて認識結果の判定を行う。これにより、どちらか一方に待ち受け単語を格納しておく場合と比べて認識精度を向上することができる。
例えば、発話者が「現在地」を発話した場合に、第1音声認識処理部103による認識の結果、待ち受け単語「現在地」との類似度が「50%」であったとする。これは、第1音声認識処理部103の認識能力が低いので、正しい認識結果にも関わらず、類似度が低く算出されたと考えられる。
この場合、第1音声認識処理部103の判断部110は、上記認識結果は誤認識の可能性があるものとして、最終的な認識結果として採用しない。この場合に、第2音声認識処理部111にも共通の待ち受け単語「現在地」が存在する場合には、第2音声認識処理部111においても同様に音声認識がなされる。このとき、第2音声認識処理部111の認識能力が高いので、第2音声認識処理部111は正常に音声認識を行う。この結果、第2音声認識処理部111は、高い類似度、例えば「85%」を算出し、判断部118は当該認識結果を最終的な認識結果として採用することになる。
以上のように、変形例2では、それぞれの音声認識処理部の認識能力を異ならせ、さらに各音声認識処理部のRAMに格納する待ち受け単語の全てもしくは一部を共通なものとすることとした。これにより、各音声認識の認識能力により、どちらか一方の音声認識処理部が高い類似度を算出することができなかった場合でも、他方が高い類似度を算出することができれば、最終的な音声認識結果を決定することができる。その結果、音声認識装置全体として、認識精度を向上することができる。
なお、それぞれの音声認識処理部の認識能力が同一の場合でも、CPUの負荷により実質的な認識能力が相違することもある。この場合においても、変形例2のように各音声認識処理部のRAMに格納する待ち受け単語の全てもしくは一部を共通なものとすれば、同様の効果が得られる。
―変形例3−
変形例1および2のように、第1音声認識処理部103と第2音声認識処理部111の認識能力が異なる場合においては、第1の実施の形態における図2のステップS50およびS80で使用される基準値は、一義的に設定することができない。このため、各音声認識処理部の処理能力に応じた基準値を設定する必要がある。変形例3においては、変形例2と同様に各音声認識処理部のRAMには、全てもしくは一部が共通な待ち受け単語を記憶しておく。そして、発話内容が正常認識されたときの各音声認識処理部によって算出された同一の待ち受け単語の類似度に基づいて基準値を設定する。以下、詳細に説明する。
一般に、発話内容が正常認識されたか否かは、認識結果に対する発話者の応答から判断する。例えば、認識結果がスピーカー102を介して発話者に通知されたとき、誤認識が発生したと発話者が判断した場合には、発話者は不図示の操作スイッチを操作して一旦発話を取り消し、再度発話を行おうとする。よって、認識結果通知後の発話者による操作スイッチの操作を監視することにより、発話内容が正常認識されたか、あるいは誤認識であったかを判定することができる。
また、各音声認識処理部で待ち受ける待ち受け単語の全てもしくは一部を共通なものにしておくことにより、発話者からの発話内容に対する同じ待ち受け単語の類似度をそれぞれの音声認識処理部にて算出することができる。よって、各音声認識処理部の認識能力が異なる場合において、同一の発話内容による同一待ち受け単語の類似度を算出することが可能となる。
そこで、各音声認識処理部で待ち受ける待ち受け単語の全てもしくは一部を共通なものにしておき、認識結果通知後の発話者による操作スイッチの操作を監視する。そして、発話内容が正常認識されたときの待ち受け単語の類似度を、正常認識時の類似度としてその履歴を記憶しておく。この正常認識時の類似度の履歴から、正常認識時の平均類似度を算出することにより、各音声認識処理部における同一待ち受け単語の正常認識時の平均類似度を把握することができる。当該同一待ち受け単語の平均類似度に基づいてそれぞれの音声認識処理部ごとに基準値を設定することにより、基準値の精度を向上することができる。
例えば、各音声認識処理部に共通の待ち受け単語「現在地」を格納しておく。そして、発話者が「現在地」と発話したときの、第1音声認識処理部103における待ち受け単語「現在地」の平均類似度が「83%」であり、第2音声認識処理部111における待ち受け単語「現在地」の平均類似度が「93%」であったとする。この場合、第1音声認識処理部103と第2音声認識処理部111とは認識能力が異なるため、発話者が発話した同一の発話内容について音声認識を行っているにも関わらず、上記のように平均類似度に差が生じている。
このとき、それぞれの平均類似度に基づいて図2のステップS50およびS80で使用される基準値をあらかじめ設定する場合について考える。上記の場合に、第1音声認識処理部103、第2音声認識処理部111に共通で基準値を設定しようとすると、第1音声認識処理部111による低い方の平均類似度に合わせて、例えば「80%」と設定される。しかし、この場合は、第2音声認識処理部111の認識精度が低下してしまう恐れがある。例えば本来であれば第2音声認識処理部111は90%以上の類似度がないと認識結果の正確性を確保できないものとする。このときに上記のように第1音声認識処理部103に合わせて基準値を「80%」と設定してしまうと、後の音声認識において、誤認識を生じる可能性があるためである。
このような場合には、同一の発話内容による同一待ち受け単語の平均類似度に基づいて、音声認識処理部の認識率に合った基準値を各音声認識処理部ごとに設定することにより、認識精度を向上することができる。例えば上記の例によれば、第1音声認識処理部103における基準値は「80%」とし、第2音声認識処理部111における基準値は「90%」と設定することができる。
なお、上記にてそれぞれの平均類似度が「83%」、「93%」であるにも関わらず、基準値を「80%」、「90%」としたのは、さらに精度を向上するために、平均値を構成する個々の類似度のバラツキを考慮したことによる。バラツキを考慮した基準値は、例えば、正常認識時の類似度の平均値にその標準偏差を考慮に入れて基準値を算出することにより設定することができる。このように、正常認識時の平均類似度と、当該平均類似度を構成する個々の類似度の履歴におけるバラツキを考慮に入れて基準値を設定することにより、さらに精度の高い基準値を設定することができる。ここでは、標準偏差を算出する方法について説明したが、その他のアルゴリズムでバラツキを考慮した基準値を設定してもよい。
以上のように、第3の変形例では、各音声認識処理部に格納する待ち受け単語の一部、または全部を共通なものにするようにし、共通の待ち受け単語についてそれぞれの音声認識処理部で類似度を算出するようにした。また、認識結果通知後の発話者の応答を監視することにより、認識結果が正常認識であったか、あるいは誤認識であったかを判断することとし、正常認識であった場合の平均類似度に基づいて基準値を設定することとした。これにより、各音声認識処理部の認識能力に合った基準値を精度良く設定することができる。さらに、基準値を設定する際に、平均類似度を構成する個々の類似度の履歴におけるバラツキを考慮に入れることにより、さらに精度の高い基準値を設定することが可能となる。
なお、以下のように変形することもできる。
(1)上記の説明においては、最終的な認識結果を決定するに当たって、まず第1音声認識処理部103による音声認識結果の類似度が基準値以上であるかを判断部110にて判定した。そして、第1音声認識処理部103の認識結果が基準値未満であれば第2音声認識処理部111による認識結果の類似度が基準値以上であるかを判断部118にて判定した。しかし、第1音声認識処理部103による音声認識結果の類似度と第2音声認識処理部111による認識結果の類似度とを得た後、双方の類似度に基づいて最終的な認識結果を決定してもよい。例えば、双方の類似度のうち大きい方を抽出し、抽出した類似度を基準値と比較することにより最終的な認識結果を決定してもよい。
(2)判断部110および118は、第1音声認識処理部103と第2音声認識処理部111とにそれぞれ備えられているが、第1音声認識処理部103と第2音声認識処理部111に共通で1つ備えてもよい。この場合、1つの判断部が第1音声認識処理部103および第2音声認識処理部111の認識結果のどちらを最終的な判断結果とするかを判定することとなる。
(3)第1音声認識処理部103および第2音声認識処理部111において音声認識処理を行う際のアルゴリズム、すなわちROM107とROM115に格納された制御プログラムは、それぞれ同一であっても異なるものであってもよい。
(4)上記の説明においては、音声認識装置100内に、第1音声認識処理部103と第2音声認識処理部111の2つの音声認識処理部を縦列に接続する構成について説明したが、音声認識装置内に音声認識処理部を3つ以上縦列に接続してもよい。また、音声認識処理部を必要に応じて追加および削除可能な構成にしておいてもよい。
(5)各音声認識処理部において音声認識を行う際に、発話内容との類似度が最大の待ち受け単語を抽出することとしたが、その他のアルゴリズムにより待ち受け単語の抽出処理を行っても良い。
特許請求の範囲の構成要素と実施の形態との対応関係について説明する。マイク101は音声入力手段に、第1音声認識処理部103および第2音声認識処理部111は音声認識処理手段に相当する。判定部110および判定部118は認識結果決定手段に、RAM108およびRAM116は待ち受け単語格納手段に相当する。なお、本発明の特徴的な機能を損なわない限り、本発明は、上述した実施の形態における構成に何ら限定されない。
本発明による音声認識装置の一実施の形態を示すブロック図である。 本実施の形態における音声認識処理を示すフローチャート図である。 発話内容に対する待ち受け単語の類似度の例を示した図である。
符号の説明
100 音声認識装置
101 マイク
102 スピーカー
103 第1音声認識処理部
104,112 アンプ
105、113 A/Dコンバータ
106、114 D/Aコンバータ
109、117 CPU
110,118 判断部
111 第2音声認識処理部

Claims (4)

  1. 音声入力手段を介して入力した発話者の発話内容を認識する複数の音声認識処理手段と、
    前記複数の音声認識処理手段の認識結果のそれぞれが正しいか否かを判断する判断手段と、
    前記判断手段によって正しいと判定された認識結果の中から、所定の条件に基づいて最終的な認識結果を決定する認識結果決定手段とを有することを特徴とする音声認識装置。
  2. 請求項1に記載の音声認識装置において、
    前記複数の音声認識処理手段は縦列に接続され、
    前記判断手段は、一の音声認識処理手段による認識結果が誤認識もしくは認識不能であると判断した場合には、他の音声認識処理手段による認識結果が正しいかを判定することにより、最終的な音声認識結果を得ることを特徴とする音声認識装置。
  3. 請求項1または2に記載の音声認識装置において、
    前記複数の音声認識処理手段ごとに音声認識用の待ち受け単語を格納する待ち受け単語格納手段をさらに有し、
    前記待ち受け単語は、必要とされる認識率に基づいて前記複数の音声認識処理手段ごとの待ち受け単語格納手段に格納されることを特徴とする音声認識装置。
  4. 請求項3に記載の音声認識装置において、
    前記複数の音声認識処理手段ごとの待ち受け単語格納手段は、全ての待ち受け単語格納手段に共通する待ち受け単語を少なくとも1つ格納していることを特徴とする音声認識装置。
JP2003418412A 2003-12-16 2003-12-16 音声認識装置 Pending JP2005181439A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003418412A JP2005181439A (ja) 2003-12-16 2003-12-16 音声認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003418412A JP2005181439A (ja) 2003-12-16 2003-12-16 音声認識装置

Publications (1)

Publication Number Publication Date
JP2005181439A true JP2005181439A (ja) 2005-07-07

Family

ID=34780633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003418412A Pending JP2005181439A (ja) 2003-12-16 2003-12-16 音声認識装置

Country Status (1)

Country Link
JP (1) JP2005181439A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015075903A1 (ja) * 2013-11-21 2015-05-28 日産自動車株式会社 音声認識装置
JP2018537734A (ja) * 2016-08-26 2018-12-20 三菱電機株式会社 ファクトリーオートメーションシステムおよびリモートサーバ

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58208795A (ja) * 1982-05-28 1983-12-05 富士通株式会社 音声認識に於るリジエクト方式
JPS62119599A (ja) * 1985-11-20 1987-05-30 富士通株式会社 単語音声認識装置
JPS63306499A (ja) * 1987-06-08 1988-12-14 株式会社リコー 不特定話者音声認識装置
JP2002116796A (ja) * 2000-10-11 2002-04-19 Canon Inc 音声処理装置、音声処理方法及び記憶媒体
JP2003323196A (ja) * 2002-05-08 2003-11-14 Nec Corp 音声認識システム、音声認識方法および音声認識用プログラム
JP2005003997A (ja) * 2003-06-12 2005-01-06 Toyota Motor Corp 音声認識装置および音声認識方法ならびに車両

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS58208795A (ja) * 1982-05-28 1983-12-05 富士通株式会社 音声認識に於るリジエクト方式
JPS62119599A (ja) * 1985-11-20 1987-05-30 富士通株式会社 単語音声認識装置
JPS63306499A (ja) * 1987-06-08 1988-12-14 株式会社リコー 不特定話者音声認識装置
JP2002116796A (ja) * 2000-10-11 2002-04-19 Canon Inc 音声処理装置、音声処理方法及び記憶媒体
JP2003323196A (ja) * 2002-05-08 2003-11-14 Nec Corp 音声認識システム、音声認識方法および音声認識用プログラム
JP2005003997A (ja) * 2003-06-12 2005-01-06 Toyota Motor Corp 音声認識装置および音声認識方法ならびに車両

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015075903A1 (ja) * 2013-11-21 2015-05-28 日産自動車株式会社 音声認識装置
JP2018537734A (ja) * 2016-08-26 2018-12-20 三菱電機株式会社 ファクトリーオートメーションシステムおよびリモートサーバ

Similar Documents

Publication Publication Date Title
JP4346571B2 (ja) 音声認識システム、音声認識方法、及びコンピュータプログラム
US7689424B2 (en) Distributed speech recognition method
WO2011148594A1 (ja) 音声認識システム、音声取得端末、音声認識分担方法および音声認識プログラム
CN107104994B (zh) 语音识别方法、电子装置及语音识别***
CN107949880A (zh) 车载用语音识别装置以及车载设备
JP6459330B2 (ja) 音声認識装置、音声認識方法、及び音声認識プログラム
EP1477965A1 (en) Spoken keyword recognition apparatus and method
JP5375423B2 (ja) 音声認識システム、音声認識方法および音声認識プログラム
JP2005037615A (ja) クライアント装置、音声認識サーバ、分散型音声認識システム、音声認識プログラム、およびコンピュータ読み取り可能な記録媒体
KR101444411B1 (ko) 발화검증 기반 대용량 음성 데이터 자동 처리 장치 및 방법
JP2004109563A (ja) 音声対話システム、音声対話のためのプログラムおよび音声対話方法
JP2005181439A (ja) 音声認識装置
JP2020148805A (ja) 音声認識システム、及び、音声認識方法
JP2006039382A (ja) 音声認識装置
JP2019132997A (ja) 音声処理装置、方法およびプログラム
JP2006337942A (ja) 音声対話装置及び割り込み発話制御方法
JP2004198832A (ja) 音声認識装置
JP2009003205A (ja) 音声認識装置、および音声認識方法
KR102417899B1 (ko) 차량의 음성인식 시스템 및 방법
JP2018005163A (ja) 運転支援装置および運転支援方法
JP6711343B2 (ja) 音声処理装置、音声処理方法及びプログラム
US20200168221A1 (en) Voice recognition apparatus and method of voice recognition
JP2754960B2 (ja) 音声認識装置
US20220215854A1 (en) Speech sound response device and speech sound response method
JP3846500B2 (ja) 音声認識対話装置および音声認識対話処理方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061025

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090930

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091027