JP4265908B2 - 音声認識装置及び音声認識性能改善方法 - Google Patents
音声認識装置及び音声認識性能改善方法 Download PDFInfo
- Publication number
- JP4265908B2 JP4265908B2 JP2002360336A JP2002360336A JP4265908B2 JP 4265908 B2 JP4265908 B2 JP 4265908B2 JP 2002360336 A JP2002360336 A JP 2002360336A JP 2002360336 A JP2002360336 A JP 2002360336A JP 4265908 B2 JP4265908 B2 JP 4265908B2
- Authority
- JP
- Japan
- Prior art keywords
- speech
- recognition
- voice
- data
- speech recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 10
- 238000005070 sampling Methods 0.000 claims description 14
- 230000005236 sound signal Effects 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 12
- 238000013500 data storage Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 3
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/32—Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Mobile Radio Communication Systems (AREA)
- Navigation (AREA)
Description
【発明の属する技術分野】
本発明は、音声認識装置及び音声認識性能改善方法に係わり、特に、ノイズ環境下での音声認識性能を改善する音声認識装置及び音声認識性能改善方法に関する。
【0002】
【従来の技術】
音声によってオーディオ機器、ナビゲーションシステムなど車載機器の操作を行う、音声認識装置が実用化されている。図6はかかる音声認識装置のブロック構成図であり、音声入力用マイクロホン1は話者が入力した音声を検出して出力し、ADコンバータ2は音声信号をディジタルに変換し、操作部3は図示しないスイッチ操作により音声認識開始を指示し、音声認識エンジン4は音声認識開始が指示されたとき、入力音声を認識する。
音声認識エンジン4の一例が特開昭59-61893号公報に開示されている。この従来技術では、単語入力音声における一連の単音節毎の特徴パターンを標準パターンと比較して音声認識し、単語辞書を参照して認識結果を意味のある単語として出力するものである。
【特許文献1】
特開昭59-61893号公報
【0003】
【発明が解決しようとする課題】
音声認識システムに入力する音声データにノイズが重畳されている場合、データの先頭部分である非音声区間の一部分を削除するなどして(非音声区間の長さを変更して)、音声区間の先頭位置を変えて音声認識エンジンに入力すると、認識結果が変わることがある。すなわち、同じ発声でも、その発話タイミング(音声区間の先頭位置)によって、認識結果の正誤が変わってしまう。
【0004】
この現象は、音声データに重畳するノイズ、例えば車室内ノイズの大きさが音声に対して十分に小さい(SN比が高い)場合は、ほとんど現れないが、車室内ノイズの大きさが音声に対して大きい(SN比が低い)場合には、顕著に現れる。このような現象が発生する理由としては、音声認識エンジン4が、非音声区間*SIT(図7)においてバックグラウンドのノイズレベルを測定し、音声区間SITの音声データより音声認識処理する際、該ノイズレベルを用いているからである。なお、非音声区間*SITは、スイッチで音声認識開始を指示した時刻tBから音声区間SITの始点位置 (発話タイミング) tTSまでの区間である。
【0005】
このノイズデータの測定は、短時間区間の測定のため、同じ条件下のノイズでも、測定位置によって測定結果にバラツキを生じてしまう。そのため、認識結果にもバラツキが発生し、結果として正しく認識したり、誤認識したりしてしまうと考えられる。例えば、図7に示すようにノイズレベルを非音声区間*SITの平均レベルとし、該ノイズレベルを考慮して音声区間SITにおける音声データを用いて音声認識するものとすると、図では非音声区間*SITの先頭でノイズレベルが大きいためノイズの平均レベルは非音声区間*SITが短いほど、すなわち発話タイミングtTSが早いほど平均レベルが大きくなり、長いほど(発話タイミングtTSが遅いほど)小さくなる。以上のように、発話タイミングtTSにより測定するノイズレベルが変化し、これにより、認識結果の正誤が変わってしまうのである。
【0006】
以上の現象は、ある程度のS/Nが確保されている環境であっても、発話のタイミングのせいで誤認識してしまう事態を呈し、ユーザー側からみると、認識性能が低下したことと同じであり、問題である。
特開昭59-61893号公報の技術を含め、従来技術では、専ら音声認識エンジンの認識精度を高めて認識率向上を目指しているが、限度がある。
以上から本発明の目的は、音声認識エンジンを変えずに音声認識性能を向上できるようにようにすることである。
【0007】
【課題を解決するための手段】
音声認識装置において、音声認識対象である音声データより非音声区間の始点位置が異なる複数の音声データを生成し、前記各音声データを用いて音声認識を行い、得られた複数の認識結果のなかで、最も多い認識結果を出力する。このようにすれば、非音声区間の始点位置をシフトするため、誤認識する音声データはあるかもしれないが、多数の音声データを認識してその数を比較すれば、正しく認識する場合が一番多くなるはずであり、従って、一番多く認識された結果を出力することにより認識性能を、認識エンジンを変えずに向上することができる。
非音声区間の始点位置が異なる複数の音声データを生成するには、前記非音声区間の始点位置を、音声区間の始点位置から所定時間前の位置まで順次シフトさせる。すなわち、入力した音声信号を所定サンプリング時間間隔でAD変換してバッファにサンプリング順に格納し、該バッファからの読み出し位置を変えることにより非音声区間の始点位置が異なる複数の音声データを生成する。
前記各音声データの音声認識処理を1台の認識エンジンが行ってもよいが時間を要する。処理時間を短縮するために非音声区間の始点位置が異なる複数の音声データのそれぞれに対応して音声認識エンジンを設け、各音声認識エンジンの認識結果のなかで、最も多い認識結果を出力する。
以上のように本発明の音声認識装置によれば、認識エンジンを変えずに音声認識性能を向上することができる。
【0008】
【発明の実施の形態】
(A)第1実施例
図1は本発明の第1実施例の音声認識装置の構成図、図2は音声データ生成部の説明図である。スイッチ動作で音声認識開始が指示されると、音声入力用マイクロホン11は話者が入力した音声を検出して出力し、ADコンバータ12は入力された音声信号(図3参照)を所定サンプリング速度でAD変換し、音声バッファ13はAD変換された音声データをサンプリング順に格納する。音声データは図3に示すように非音声区間*SITの音声信号(ノイズ)と音声区間SITの音声信号とを時系列にサンプリングして作成され、順に番号1〜nが付されて図2に示すように音声バッファ13に順番に保存される。番号が若い方は非音声区間*SITのデータ、番号が大きい方は音声区間SITのデータである。
【0009】
音声データ生成部14は、音声バッファ13からの読み出し開始位置をシフトすることにより、非音声区間の始点位置が異なる複数の音声データDT1,DT2,DT3,……を生成して音声データ記憶部15に格納する。読み出し開始位置のシフト点は、図3に示すように音声区間SITの始点位置tTSから所定時間T前の位置tCまでである。認識処理部16の音声認識エンジン17は音声区間SITの始点位置tSTを識別し、該始点位置tSTを用いて最終シフト位置tCを求めて音声始端検出情報SSTとして出力する。音声始端検出情報SSTは、一つの音声データを認識処理する毎に得られるが、最初の音声データを認識処理したときの始端検出情報を使っても良いし、最初から数データ分の音声始端検出情報を平均したものを使っても良い。
【0010】
図2を参照すると、音声データ生成部14のポインタ制御部21は音声認識エンジン17から入力する音声始端検出情報SST(=読み出し開始の最終シフト位置tC)を受信する。ポインタ制御部21は読み出し位置(ポインタ)を順次シフトしてデータ読み出し部22に入力し、データ読み出し部22は指示されたポインタの示す位置からサンプリングデータを音声バッファ13から読み出して音声データ記憶部15に保存する。 1つの音声データの読み出しが完了すれば、ポインタ制御部21は読み出し開始位置を1サンプリングデータ分シフトし、読み出し位置(ポインタ)を順次シフトしてデータ読み出し部22に入力し、データ読み出し部22は入力されたポインタの示す位置からサンプリングデータを音声バッファ13から読み出して音声データ記憶部15に保存する。以後、音声データの読み出しが完了する毎に読み出し位置(ポインタ)をシフトして音声データの読み出しを行い、読み出し位置(ポインタ)が最終シフト位置tCに等しくなったとき音声データの生成処理が完了する。
【0011】
以上と並行して、認識処理部16の音声認識エンジン17は、第1番目の音声データDT1を用いて音声認識処理を行うと共に、音声区間SITの始点位置tSTを検出して音声始端検出情報SSTを出力する。そして認識結果(認識結果1)を認識結果保存部18に保存する。
ついで、音声認識エンジン17は、第2番目の音声データDT2を用いて音声認識処理を行って認識結果2を認識結果保存部18に保存する。以後、同様にして全音声データDT1〜DTkの認識結果1〜kを認識結果保存部18に保存する。
全音声データDT1〜DTkの認識が終了すれば、集計/比較部19は、得られた複数の認識結果のなかで、最も多い認識結果を最終結果として出力する。図4は集計/比較部19の構成図であり、集計部31と比較結果出力部32を有している。集計部31は比較結果毎にその数を集計する。図では、比較結果A,B,Cの数はp,q,rである。比較結果出力部32はp,q,rのうち最大値に応じた認識結果を最終認識結果として出力する。
【0012】
以上、第1実施例によれば、非音声区間の始点位置をシフトするため、ノイズの影響により、たまたま誤認識する音声データはあるかもしれないが、ノイズが存在しないときには正しく認識する音声認識エンジンであれば、多数の音声データを認識してその数を比較すれば、正しく認識する場合が最も多くなる。従って、一番多く認識された結果を出力することにより認識性能を、認識エンジンを変えずに向上することができる。
【0013】
(B)第2実施例
図5は第2実施例の音声認識装置の構成図であり、図1の第1実施例と同一部分には同一符号を付している。第1実施例と異なる点は、
(1)音声データDT1〜DTkを保存する音声データ記憶部15を削除した点、
(2)音声データ生成部14から出力するk個の音声データに対応してk個の認識エンジン171〜17kを設けている点、
(3)各認識エンジン171〜17kがk個の音声データに対して音声認識処理を行って、それぞれ認識結果A,B,C...を集計/比較部19に入力する点、
(4) 集計/比較部19が各音声認識エンジン171〜17kの認識結果のなかで、最も多い認識結果を最終認識結果として出力する、
点である。
このようにk個の音声認識エンジンを設けることにより高速の音声認識結果を得ることができ、しかも、認識性能を向上することができる。
【0014】
【発明の効果】
以上本発明によれば、音声認識対象である音声データより非音声区間の始点位置が異なる複数の音声データを生成し、前記各音声データを用いて音声認識を行い、得られた複数の認識結果を出力するように構成したから、認識エンジンを変えずに認識性能を向上することができる。
又、本発明によれば、複数の音声データのそれぞれに対応して音声認識エンジンを設けることにより高速の音声認識結果を得ることができ、しかも、認識性能を向上することができる。
又、本発明によれば、ある程度以上のS/N(2〜3dB以上)が確保されている環境下で認識エンジンを用いたときに、発話タイミングのせいで誤認識するという現象をなくすことができる。これは、ユーザ側からみると、ノイズ環境下での認識性能が向上することと同じ効果をもつことになり本発明は有用である。
【図面の簡単な説明】
【図1】本発明の第1実施例の音声認識装置の構成図である。
【図2】音声データ生成部の説明図である。
【図3】音声信号説明図である。
【図4】図4は集計/比較部の構成図である。
【図5】第2実施例の音声認識装置の構成図である。
【図6】従来の音声認識装置のブロック構成図である。
【図7】音声区間、非音声区間の説明図である。
【符号の説明】
11 音声入力用マイクロホン
12 ADコンバータ
13 音声バッファ
14 音声データ生成部
15 音声データ記憶部
17 音声認識エンジン
18 認識結果保存部
19 集計/比較部
Claims (9)
- 音声認識対象である音声データの非音声区間におけるノイズレベルを考慮して音声を認識する音声認識装置であって、該音声の認識性能を改善する音声認識装置における音声認識性能改善方法において、
音声認識対象である音声データより非音声区間の始点位置が異なる複数の音声データを生成する際、該非音声区間の始点位置を、音声区間の始点位置から所定時間前の位置まで順次移動させることにより、該音声認識対象である音声データより非音声区間の始点位置が異なる複数の音声データを生成し、
前記各音声データを用いて音声認識を行い、
得られた複数の認識結果のなかで、最も多い認識結果を出力する、
ことを特徴とする音声認識性能改善方法。 - 前記音声区間の始点位置を、前記音声認識を行う音声認識エンジンより出力する、
ことを特徴とする請求項1記載の音声認識性能改善方法。 - 入力した音声信号を所定サンプリング時間間隔でAD変換してバッファにサンプリング順に格納し、該バッファからの読み出し位置を変えることにより非音声区間の始点位置が異なる複数の音声データを生成する、
ことを特徴とする請求項1記載の音声認識性能改善方法。 - 非音声区間の始点位置が異なる複数の音声データのそれぞれに対応して音声認識エンジンを設け、各音声認識エンジンの認識結果のなかで、最も多い認識結果を出力する、
ことを特徴とする請求項1記載の音声認識性能改善方法。 - 音声認識対象である音声データの非音声区間におけるノイズレベルを考慮して音声を認識する音声認識装置であって、該音声の認識性能を改善する音声認識装置において、
音声認識対象である音声データより非音声区間の始点位置が異なる複数の音声データを生成する際、該非音声区間の始点位置を、音声区間の始点位置から所定時間前の位置まで順次移動させることにより、該音声認識対象である音声データより非音声区間の始点位置が異なる複数の音声データを生成する音声データ生成部、
前記各音声データを用いて音声認識を行う音声認識エンジン、
得られた複数の認識結果のなかで、最も多い認識結果を選択して出力する認識結果選択部、
を備えたことを特徴とする音声認識装置。 - 前記音声認識エンジンは、前記音声区間の始点位置を出力する、
ことを特徴とする請求項5記載の音声認識装置。 - 入力した音声信号を所定サンプリング時間間隔でAD変換するADコンバータ、
AD変換された音声データをサンプリング順に格納する音声バッファ、
を備え、前記音声データ生成部は、該バッファからの読み出し開始位置を変えることにより非音声区間の始点位置が異なる複数の音声データを生成する、
ことを特徴とする請求項5記載の音声認識装置。 - 音声認識対象である音声データの非音声区間におけるノイズレベルを考慮して音声を認識する音声認識装置であって、該音声の認識性能を改善する音声認識装置において、
非音声区間の始点位置が異なる複数(k個)の音声データのそれぞれを入力されて音声認識を行うk個の音声認識エンジン、
音声認識対象である音声データより非音声区間の始点位置が異なるk個の音声データを生成する際、該非音声区間の始点位置を、音声区間の始点位置から所定時間前の位置まで順次移動させることにより、該音声認識対象である音声データより非音声区間の始点位置が異なる複数の音声データを生成し、それぞれを各音声認識エンジンに入力する音声データ生成部、
各音声認識エンジンの認識結果のなかで、最も多い認識結果を選択して出力する認識結果選択部、
を備えたことを特徴とする音声認識装置。 - 入力した音声信号を所定サンプリング時間間隔でAD変換するADコンバータ、
AD変換された音声データをサンプリング順に格納する音声バッファ、
を備え、前記音声データ生成部は、該バッファからの読み出し開始位置を変えることにより非音声区間の始点位置が異なるk個の音声データを生成して各音声認識エンジンに入力する、
ことを特徴とする請求項8記載の音声認識装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002360336A JP4265908B2 (ja) | 2002-12-12 | 2002-12-12 | 音声認識装置及び音声認識性能改善方法 |
US10/730,767 US8244533B2 (en) | 2002-12-12 | 2003-12-08 | Speech recognition performance improvement method and speech recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002360336A JP4265908B2 (ja) | 2002-12-12 | 2002-12-12 | 音声認識装置及び音声認識性能改善方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004191703A JP2004191703A (ja) | 2004-07-08 |
JP4265908B2 true JP4265908B2 (ja) | 2009-05-20 |
Family
ID=32759436
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002360336A Expired - Fee Related JP4265908B2 (ja) | 2002-12-12 | 2002-12-12 | 音声認識装置及び音声認識性能改善方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US8244533B2 (ja) |
JP (1) | JP4265908B2 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006091130A (ja) * | 2004-09-21 | 2006-04-06 | Nissan Motor Co Ltd | 音声認識装置および音声認識方法 |
US7831425B2 (en) * | 2005-12-15 | 2010-11-09 | Microsoft Corporation | Time-anchored posterior indexing of speech |
CN101636784B (zh) * | 2007-03-20 | 2011-12-28 | 富士通株式会社 | 语音识别***及语音识别方法 |
US8712774B2 (en) * | 2009-03-30 | 2014-04-29 | Nuance Communications, Inc. | Systems and methods for generating a hybrid text string from two or more text strings generated by multiple automated speech recognition systems |
US8700399B2 (en) * | 2009-07-06 | 2014-04-15 | Sensory, Inc. | Systems and methods for hands-free voice control and voice search |
US9922651B1 (en) * | 2014-08-13 | 2018-03-20 | Rockwell Collins, Inc. | Avionics text entry, cursor control, and display format selection via voice recognition |
US9432611B1 (en) | 2011-09-29 | 2016-08-30 | Rockwell Collins, Inc. | Voice radio tuning |
US9431012B2 (en) | 2012-04-30 | 2016-08-30 | 2236008 Ontario Inc. | Post processing of natural language automatic speech recognition |
US9093076B2 (en) * | 2012-04-30 | 2015-07-28 | 2236008 Ontario Inc. | Multipass ASR controlling multiple applications |
US9135916B2 (en) | 2013-02-26 | 2015-09-15 | Honeywell International Inc. | System and method for correcting accent induced speech transmission problems |
EP2821943A1 (en) * | 2013-07-03 | 2015-01-07 | Accenture Global Services Limited | Query response device |
CN104267922B (zh) * | 2014-09-16 | 2019-05-31 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4885791A (en) * | 1985-10-18 | 1989-12-05 | Matsushita Electric Industrial Co., Ltd. | Apparatus for speech recognition |
JPH05197389A (ja) * | 1991-08-13 | 1993-08-06 | Toshiba Corp | 音声認識装置 |
JP3091537B2 (ja) | 1991-10-01 | 2000-09-25 | 三洋電機株式会社 | 音声パターン作成方法 |
JPH0683388A (ja) | 1992-09-04 | 1994-03-25 | Fujitsu Ten Ltd | 音声認識装置 |
US5596679A (en) * | 1994-10-26 | 1997-01-21 | Motorola, Inc. | Method and system for identifying spoken sounds in continuous speech by comparing classifier outputs |
US6397180B1 (en) * | 1996-05-22 | 2002-05-28 | Qwest Communications International Inc. | Method and system for performing speech recognition based on best-word scoring of repeated speech attempts |
EP0944036A4 (en) * | 1997-04-30 | 2000-02-23 | Japan Broadcasting Corp | METHOD AND DEVICE FOR DETECTING LANGUAGE AREAS, AND METHOD AND DEVICE FOR LANGUAGE SPEED CONVERSION |
US5956671A (en) * | 1997-06-04 | 1999-09-21 | International Business Machines Corporation | Apparatus and methods for shift invariant speech recognition |
US6216103B1 (en) * | 1997-10-20 | 2001-04-10 | Sony Corporation | Method for implementing a speech recognition system to determine speech endpoints during conditions with background noise |
JP3893763B2 (ja) * | 1998-08-17 | 2007-03-14 | 富士ゼロックス株式会社 | 音声検出装置 |
US6324509B1 (en) * | 1999-02-08 | 2001-11-27 | Qualcomm Incorporated | Method and apparatus for accurate endpointing of speech in the presence of noise |
JP3789246B2 (ja) * | 1999-02-25 | 2006-06-21 | 株式会社リコー | 音声区間検出装置、音声区間検出方法、音声認識装置、音声認識方法および記録媒体 |
GB9911971D0 (en) * | 1999-05-21 | 1999-07-21 | Canon Kk | A system, a server for a system and a machine for use in a system |
US6920421B2 (en) * | 1999-12-28 | 2005-07-19 | Sony Corporation | Model adaptive apparatus for performing adaptation of a model used in pattern recognition considering recentness of a received pattern data |
US6493668B1 (en) | 2001-06-15 | 2002-12-10 | Yigal Brandman | Speech feature extraction system |
JP2003280678A (ja) | 2002-03-20 | 2003-10-02 | Asahi Kasei Corp | 音声認識装置 |
US7149689B2 (en) * | 2003-01-30 | 2006-12-12 | Hewlett-Packard Development Company, Lp. | Two-engine speech recognition |
-
2002
- 2002-12-12 JP JP2002360336A patent/JP4265908B2/ja not_active Expired - Fee Related
-
2003
- 2003-12-08 US US10/730,767 patent/US8244533B2/en active Active - Reinstated
Also Published As
Publication number | Publication date |
---|---|
US20040162727A1 (en) | 2004-08-19 |
JP2004191703A (ja) | 2004-07-08 |
US8244533B2 (en) | 2012-08-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101149928B (zh) | 声音信号处理方法、声音信号处理设备及计算机程序 | |
JP4265908B2 (ja) | 音声認識装置及び音声認識性能改善方法 | |
EP1936606B1 (en) | Multi-stage speech recognition | |
US6662159B2 (en) | Recognizing speech data using a state transition model | |
KR100552693B1 (ko) | 피치검출방법 및 장치 | |
JP2007271876A (ja) | 音声認識装置および音声認識用のプログラム | |
JP3428058B2 (ja) | 音声認識装置 | |
JP2964881B2 (ja) | 音声認識装置 | |
JP2002189487A (ja) | 音声認識装置および音声認識方法 | |
JP2820093B2 (ja) | 単音節認識装置 | |
JPH11231897A (ja) | 音声認識装置及び方法 | |
JP3615088B2 (ja) | 音声認識方法及び装置 | |
JP2585214B2 (ja) | ピッチ抽出方法 | |
JP2792720B2 (ja) | 音声認識装置 | |
JP2005107384A (ja) | 音声認識装置および方法、プログラム並びに記録媒体 | |
JP2006106300A (ja) | 音声認識装置及びそのプログラム | |
JPS60129796A (ja) | 音声入力装置 | |
US11922927B2 (en) | Learning data generation device, learning data generation method and non-transitory computer readable recording medium | |
JP2757356B2 (ja) | 単語音声認識方法および装置 | |
JPH0713587A (ja) | 隠れマルコフモデル連結学習方法 | |
JPH0519784A (ja) | 音声認識装置 | |
JPH01185599A (ja) | 音声認識装置 | |
JP2000250579A (ja) | 音声認識装置及び同装置に使用される学習方法ならびに学習装置及び同方法がプログラムされ記録された記録媒体 | |
RU2101782C1 (ru) | Способ распознавания слов в слитной речи и система для его реализации | |
JP2000267683A (ja) | 無音判定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20051128 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080430 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080610 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080804 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080902 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081020 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20081111 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081204 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20090122 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20090210 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20090212 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4265908 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120227 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120227 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130227 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130227 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140227 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |