JP5276610B2 - 言語モデル生成装置、そのプログラムおよび音声認識システム - Google Patents
言語モデル生成装置、そのプログラムおよび音声認識システム Download PDFInfo
- Publication number
- JP5276610B2 JP5276610B2 JP2010023969A JP2010023969A JP5276610B2 JP 5276610 B2 JP5276610 B2 JP 5276610B2 JP 2010023969 A JP2010023969 A JP 2010023969A JP 2010023969 A JP2010023969 A JP 2010023969A JP 5276610 B2 JP5276610 B2 JP 5276610B2
- Authority
- JP
- Japan
- Prior art keywords
- language model
- word
- synonym
- chain
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
主に話し言葉で見られるくだけた日本語には、同一の表現に対応するさまざまな表記や読みが存在する。例えば、「という」は、「っていう」または「っちゅう」等の表現になることが多い。一方、書き言葉では、これら全てが「という」に統一される。
また、話し言葉を書き起こした学習テキストを用いる場合、「という」が、例えば、「っていう」または「っちゅう」に置き換えられることがある。
これらの結果、言語モデルにおいて、一例として、「という」の統計量が分散して学習テキストの量が不十分となり、信頼できる確率値を算出できないことがある。
さらに、本発明は、前記した問題を解決し、認識誤りが少ない音声認識を可能とする音声認識システムを提供することも課題とする。
かかる構成によれば、言語モデル生成装置は、言語モデルのデータサイズを縮小することができる。
かかる構成によれば、言語モデル生成装置は、発音辞書を、基本型の表記と同意型の表記および発音とを対応付けた変換後発音辞書に変換する。
本願第1,4発明によれば、文脈を考慮した確率的言語モデルを生成するため、大語彙連続音声認識に対応することができる。そして、本願第1発明によれば、学習テキストに同意語が存在することによって分散して、低い値で算出された同意語の出現確率を補正するので、学習テキストが少量の場合でも、認識誤りが少ない音声認識を可能とする言語モデルを生成できる。
本願第3発明によれば、変換後発音辞書に基本型の表記と同意型の表記および発音とが対応付けられているので、変換後発音辞書を参照することで、基本型に対応する同意型の表記と発音とを容易に出力することができる。
図1を参照して、本発明の実施形態に係る音声認識システムの概略について説明する。
図1に示すように、音声認識システム100は、言語モデル生成装置1と、音声認識装置3とを備える。
言語モデル生成装置1は、同一の意味で表記または読みが異なる単語または連鎖語からなる同意語を含む学習テキストを用いて、音声認識に用いる言語モデルを生成する。
音声認識装置3は、言語モデル生成装置1が生成した言語モデルを用いて、入力音声を音声認識する。
以下、言語モデル生成装置1の構成を詳細に説明する。
図1に示すように、言語モデル生成装置1は、学習テキスト記憶部11と、連鎖語リスト記憶部12と、編集距離付与連鎖語関係リスト記憶部13と、編集距離最小連鎖語関係リスト記憶部14と、同意単語・連鎖語リスト記憶部15と、言語モデル記憶部16と、発音辞書記憶部17と、変換後発音辞書記憶部18と、同意単語・連鎖語選択部(同意語選択部)21と、言語モデル生成部22と、言語モデル変換部23と、発音辞書変換部24とを備える。
学習テキスト記憶部11は、言語モデルを生成する際に必要となる学習テキスト(学習データ)を記憶するメモリ、ハードディスク等の記憶手段である。この学習テキストは、例えば、音声認識システムの利用者により、学習テキスト記憶部11に予め記憶される。
編集距離付与連鎖語関係リスト記憶部13は、編集距離付与連鎖語関係リストを記憶するメモリ、ハードディスク等の記憶手段である。
編集距離最小連鎖語関係リスト記憶部14は、編集距離最小連鎖語関係リストを記憶するメモリ、ハードディスク等の記憶手段である。
同意単語・連鎖語リスト記憶部15は、同意単語・連鎖語リスト(同意語リスト)を記憶するメモリ、ハードディスク等の記憶手段である。
なお、連鎖語リスト、編集距離付与連鎖語関係リスト、編集距離最小連鎖語関係リストおよび同意単語・連鎖語リストの詳細は、同意単語・連鎖語選択部21とあわせて説明する。
変換後発音辞書記憶部18は、変換後発音辞書を記憶するメモリ、ハードディスク等の記憶手段である。この変換後発音辞書は、後記する発音辞書変換部24によって発音辞書が変換されたものであり、音声認識装置3が音声認識を行う際に参照される。
なお、発音辞書および変換後発音辞書の詳細は、発音辞書変換部24とあわせて説明する。
以下、図2を参照し、同意単語・連鎖語選択部21を詳細に説明する。
同意単語・連鎖語選択部21は、学習テキストを参照し、利用者から入力された選択指示に基づいて、同意単語・連鎖語リストを生成する。ここで、図2に示すように、同意単語・連鎖語選択部21は、連鎖語抽出手段211と、編集距離算出手段212と、最小編集距離選択手段(連鎖語候補選択手段)213と、同意単語・連鎖語リスト生成手段214とを備える。
なお、連鎖語の抽出手法の詳細は、例えば、文献「対談音声のための連鎖語とクラスを利用した言語モデル、日本音饗学会講演論文集、pp.71−72、2006年3月」に記載されている。
図3の連鎖語リストは、連鎖語抽出手段211によって学習テキストから抽出された連鎖語(例えば、「あり_ます」、「い_ない」、「い_ました」)が、それぞれ格納されている。
編集距離算出手段212は、連鎖語リストを参照し、この連鎖語リストに含まれる連鎖語の編集距離をDPマッチングによって算出する。具体的には、編集距離算出手段212は、各連鎖語に対して、その連鎖語を除くN−1個の連鎖語と、その連鎖語を構成する単語単位とでDPマッチングを行って、連鎖語の編集距離を算出する。そして、編集距離算出手段212は、各連鎖語、および、各連鎖語の編集距離を格納した編集距離付与連鎖語関係リストを生成して、編集距離付与連鎖語関係リスト記憶部13に記憶する。
なお、DPマッチングの詳細は、例えば、文献「パターン認識と学習のアルゴリズム、文一総合出版、pp.91−108」に記載されている。
図4に示すように、最小編集距離選択手段213は、編集距離最小連鎖語関係リストを、例えば、基本型を示す識別子「基本型」で始まる行と、同意型を示す識別子「同意型」で始まる行とが交互に現れるフォーマットとする。このとき、最小編集距離選択手段213は、編集距離最小連鎖語関係リストに、「基本型」で始まる行には1個の連鎖語を含め、「同意型」で始まる行には1個以上の連鎖語を含めるようにする。さらに、最小編集距離選択手段213は、編集距離最小連鎖語関係リストにおいて、「同意型」で始まる行の各連鎖語が、その1行上の「基本型」で始まる行の連鎖語に対して、編集距離が最小となる関係とする。例えば、図4の編集距離最小連鎖語関係リストは、「同意型」で始まる行の2つの連鎖語「なきゃ_いけ_ない」および「なければ_なら_ない」が、その1行上の「基本型」で始まる行の連鎖語「なければ_いけ_ない」に対して、編集距離が最小であることを示している。
同意単語・連鎖語リスト生成手段214は、利用者から選択指示が入力され、この選択指示に基づいて同意単語・連鎖語リストを生成する。つまり、同意単語・連鎖語リスト生成手段214は、この選択指示に含まれる同意語を格納して同意単語・連鎖語リストを生成する。そして、同意単語・連鎖語リスト生成手段214は、生成した同意単語・連鎖語リストを同意単語・連鎖語リスト記憶部15に記憶する。
図5の同意単語・連鎖語リストは、図4の編集距離最小連鎖語関係リストから、同意語として選択された連鎖語が含まれる。また、この同意単語・連鎖語リストは、図4の編集距離最小連鎖語関係リストと同様に、「基本型」および「同意型」という識別子を行頭に挿入することで、同意語(同一の意味の単語および同一の意味の連鎖語)を対応付けている。つまり、同意単語・連鎖語リストは、「基本型」で始まる行の連鎖語と、その1行下の「同意型」で始まる行の連鎖語とが同意語であることを示す。例えば、図5の同意単語・連鎖語リストは、「基本型」で始まる行の連鎖語「なければ_いけ_ない」と、その一行下の「同意型」で始まる行の連鎖語「なきゃ_いけ_ない」とが同意語であることを示している。その一方、図4に図示した連鎖語「なければ_なら_ない」は、連鎖語「なければ_いけ_ない」の同意語でないと利用者によって判断されたため、同意単語・連鎖語リストに含まれない。
なお、図5では省略したが、同意単語・連鎖語リストは、連鎖語と同様、同意語として、同一の意味となる単語を対応付けても良いことは言うまでもない。
なお、単語については、連鎖語に比べ、利用者が同意語を選択する手間が少ないため、編集距離最小連鎖語関係リストに相当するリストを生成していない。
図1に戻り、言語モデル生成装置1の説明を続ける。
言語モデル生成部22は、学習テキストを確率的言語モデルによって学習(機械学習)することで、言語モデルを生成して言語モデル記憶部16に記憶する。ここで、言語モデル生成部22は、確率的言語モデルとして、単語Nグラムモデルを用いる。この単語Nグラムモデルは、学習テキストに含まれる単語列w1 n=w1,・・・,wnに対して、単語wnの出現確率を、直前のN−1単語から予測する確率的言語モデルであり、下記の式(1)で表すことができる。
図7の言語モデルは、左列がNグラム確率値(出現確率)であり、中央列がパラメータ名(単語または連鎖語)であり、右列がバックオフ係数である。
パラメータ名は、単語または連鎖語を示している。また、パラメータ名の<s>は文頭記号であり、</s>は文末記号である。つまり、この言語モデルでは、文頭記号と文末記号とを単語として扱っている。
バックオフ係数は、学習テキストの中に出現確率がゼロとなるNグラム確率値を、低次の単語Nグラムモデル(例えば、ユニグラム)から推定するときに用いる係数である。
なお、バックオフ係数の詳細は、後記するバックオフ係数処理手段234とあわせて説明する。
以下、図6に戻り、言語モデル変換部23を詳細に説明する。
言語モデル変換部23は、同意単語・連鎖語リストを参照し、言語モデルの変換(補正)を行う。ここで、図6に示すように、言語モデル変換部23は、パラメータ抽出手段231と、確率値算出手段232と、履歴処理手段233と、バックオフ係数処理手段234と、言語モデル更新手段235とを備える。
まず、第1例〜第3例として、連鎖語列wi,wjの次に連鎖語wkが出現するトライグラムに手法1〜手法3を適用したときの具体例を説明する。
同一の意味の連鎖語毎にクラスタリングした結果、N個の連鎖語クラス{C1,・・・,CN}が得られ、あるクラスCnにおいて(但し、1≦n≦N)、Kn+1個の同一の意味の連鎖語が存在するとする。この場合、Kn+1個の連鎖語のうち、出現確率が最大のものを基本型とし、これ以外を同意型とする(単語も基本型と同意型とを有する)。つまり、Kn+1個の連鎖語は、下記の式(2)で表される。
なお、式(3)において、Sn(κ)は、クラスCnにおけるκ番目の連鎖語を示す
この第2例では、基本型と同意型とが均等の確率で出現すると解釈する。従って、確率値算出手段232は、下記の式(4)を用いて、連鎖語の出現確率の平均値を確率値として算出する。
この第3例では、確率値算出手段232は、手法1および手法2を簡略し、下記の式(5)を用いて、連鎖語の出現確率の最大値を確率値として算出する。つまり、確率値算出手段232は、同意型の出現確率を、基本型の出現確率で置き換える。
続いて、第4例〜第6例として、ユニグラムに手法1〜手法3を適用したときの具体例を説明する。この第4例〜第6例では、同意語とその出現確率とが以下の関係であるとする。また、この第4例〜第6例では、同意語「んです_けれど」を基本型とし、それ以外の同意語「んです_けれども」、「んです_けど」および「んです_が」を同意型とする。
同意語 出現確率
んです_けれど 0.4
んです_けれども 0.3
んです_けど 0.2
んです_が 0.1
同意語 確率値
んです_けれど 1.0
んです_けれども 1.0
んです_けど 1.0
んです_が 1.0
この第5例では、確率値算出手段232は、第2例と同様、同意語の出現確率を平均した値を確率値とする。つまり、確率値算出手段232は、「(0.4+0.3+0.2+0.1)/4=0.25」という計算を行う。従って、各同意語の確率値は、以下のようになる。
同意語 確率値
んです_けれど 0.25
んです_けれども 0.25
んです_けど 0.25
んです_が 0.25
この第6例では、確率値算出手段232は、第3例と同様、同意語の中で出現確率の最大値「0.4」を求める。従って、各同意語の確率値は、以下のようになる。
同意語 確率値
んです_けれど 0.4
んです_けれども 0.4
んです_けど 0.4
んです_が 0.4
なお、式(6)において、C(・)は、学習テキスト中の出現確率を示す。
なお、式(8)において、Nは、学習テキストの全単語について、ユニグラムでの出現確率の和を表す。
なお、履歴処理手段233は、単語と同様、連鎖語についても履歴処理を行うことができる。
手法B:同意型を履歴とするNグラムパラメータに、基本型を履歴とするNグラムパラメータの値を代用する。
なお、式(10)および式(11)において、バックオフ係数はαである。
なお、バックオフ係数処理手段234は、単語と同様、連鎖語についてもバックオフ係数処理を行うことができる。
以下、図8および図9を参照し、発音辞書変換部24の詳細を説明する(適宜図1参照)。
発音辞書変換部24は、同意単語・連鎖語リストを参照して、発音辞書のフォーマット変換を行う。図8に示すように、発音辞書は、左列が連鎖語または単語の表記であり、右列がその連鎖語または単語の発音である。この発音辞書では、発音をローマ字で表しており、“:”はその直前の母音を伸ばして発音することを表している。例えば、この発音辞書には、連鎖語「と_いう」は、「toiu sp」および「toyou:sp」という2つの発音が登録されている。
<同意単語・連鎖語選択部>
以下、図10を参照して、図2の同意単語・連鎖語選択部21の動作を説明する(適宜図2参照)。
まず、言語モデル生成装置1は、連鎖語抽出手段211によって、学習テキストより連鎖語を抽出する(ステップS1)。また、言語モデル生成装置1は、編集距離算出手段212によって、抽出した連鎖語の編集距離をDPマッチングによって算出する(ステップS2)。
以下、図11を参照して、図6の言語モデル変換部23の動作を説明する(適宜図6参照)。
まず、言語モデル生成装置1は、言語モデル生成部22によって、言語モデルを生成する(ステップS11)。また、言語モデル生成装置1は、パラメータ抽出手段231によって、同意語のNグラムパラメータを言語モデルから抽出する(ステップS12)。
図1に戻り、音声認識装置3の構成を説明する。
図1に示すように、音声認識装置3は、音響モデル記憶部31と、音声分析部33と、探索部35とを備える。
ここでは、図1の言語モデル生成装置1によって、手法1〜手法3を用いて言語モデルを生成した。そして、各言語モデルを用いて、図1の音声認識装置3によって、報道情報番組(大語彙連続音声認識)を入力音声として、音声認識を行った。また、比較の対象として、従来の手法で生成した言語モデルを用いて、同一の報道情報番組を音声認識し、単語誤り率を求めた。下記の表1に、単語誤り率の結果を示す。
なお、比較例3の手法は、言語モデルに基本型のNグラムパラメータが存在して同意型のNグラムパラメータが存在しない場合、又は、その逆の場合で存在しない方のNグラムパラメータを追加するものである。
11 学習テキスト記憶部
12 連鎖語リスト記憶部
13 編集距離付与連鎖語関係リスト記憶部
14 編集距離最小連鎖語関係リスト記憶部
15 同意単語・連鎖語リスト記憶部
16 言語モデル記憶部
17 発音辞書記憶部
18 変換後発音辞書記憶部
21 同意単語・連鎖語選択部(同意語選択部)
211 連鎖語抽出手段
212 編集距離算出手段
213 最小編集距離選択手段(連鎖語候補選択手段)
214 同意単語・連鎖語リスト生成手段
22 言語モデル生成部
23 言語モデル変換部
231 パラメータ抽出手段
232 確率値算出手段
233 履歴処理手段
234 バックオフ係数処理手段
235 言語モデル更新手段
236 言語モデル削除手段
24 発音辞書変換部
3 音声認識装置
31 音響モデル記憶部
33 音声分析部
35 探索部
100 音声認識システム
Claims (5)
- 同一の意味で表記または読みが異なる単語または連鎖語からなる同意語を含む学習テキストを用いて、言語モデルを生成する言語モデル生成装置であって、
前記学習テキストを確率的言語モデルによって学習することで、前記学習テキストに含まれる単語または連鎖語の少なくとも一方の出現確率を示す言語モデルを生成する言語モデル生成部と、
前記学習テキストの1単語あたりのエントロピーを最も削減する順序で、前記学習テキストに予め設定された頻度以上出現する単語対を前記連鎖語として抽出する連鎖語抽出手段と、
前記連鎖語抽出手段が抽出した連鎖語の編集距離をDPマッチングによって算出する編集距離算出手段と、
前記編集距離算出手段によって算出された編集距離が最小となる連鎖語を同意語候補として選択する最小編集距離選択手段と、
前記同意語候補から予め選択された連鎖語が含まれる選択指示が入力され、前記選択指示に基づいて、同一の意味を有する前記同意語が予め対応付けられた同意語リストを生成する同意単語・連鎖語リスト生成手段と、
前記同意語リストを参照して、前記言語モデルにおいて前記同一の意味を有する同意語の出現確率に基づいて確率値を算出し、前記言語モデルに含まれる前記同意語の出現確率を前記確率値で更新する言語モデル変換部と、
を備えることを特徴とする言語モデル生成装置。 - 前記言語モデル変換部は、
前記出現確率が最大となる前記同意語の基本型以外である前記同意語の同意型を、前記言語モデル変換部が更新した後の言語モデルから削除する言語モデル削除手段、
を備えることを特徴とする請求項1に記載の言語モデル生成装置。 - 少なくとも前記同意語の表記と当該同意語の発音とを予め対応付けた発音辞書を記憶する発音辞書記憶部と、
前記発音辞書を、前記同意語リストを参照して、前記同意語の基本型の表記と、当該基本型に対応する同意語の同意型の表記と、当該同意語の同意型の発音とを少なくとも含む変換後発音辞書に変換する発音辞書変換部と、
をさらに備えることを特徴とする請求項1又は請求項2に記載の言語モデル生成装置。 - コンピュータを、請求項1に記載の言語モデル生成装置として機能させるための言語モデル生成プログラム。
- 請求項3に記載の言語モデル生成装置と、当該言語モデル生成装置が生成した言語モデルを用いて音声認識を行う音声認識装置とを備える音声認識システムであって、
前記音声認識装置は、
音声データを学習することで予め生成した確率モデルである音響モデルを記憶する音響モデル記憶部と、
入力される入力音声を音声分析して当該入力音声の特徴ベクトルを算出する音声分析部と、
前記音声分析部が算出した特徴ベクトルと前記音響モデルとのマッチングにより音響スコアを算出すると共に、前記言語モデルを参照して、音声認識結果の候補となる単語候補の出現確率に第1の定数を乗算した値に第2の定数を加算した言語スコアを算出すると共に、前記言語スコアと前記音響スコアとが最大になる単語候補の列を、前記変換後発音辞書を参照して前記音声認識の結果として出力する探索部と、
を備えることを特徴とする音声認識システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010023969A JP5276610B2 (ja) | 2010-02-05 | 2010-02-05 | 言語モデル生成装置、そのプログラムおよび音声認識システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010023969A JP5276610B2 (ja) | 2010-02-05 | 2010-02-05 | 言語モデル生成装置、そのプログラムおよび音声認識システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011164175A JP2011164175A (ja) | 2011-08-25 |
JP5276610B2 true JP5276610B2 (ja) | 2013-08-28 |
Family
ID=44594966
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010023969A Expired - Fee Related JP5276610B2 (ja) | 2010-02-05 | 2010-02-05 | 言語モデル生成装置、そのプログラムおよび音声認識システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5276610B2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105845133A (zh) * | 2016-03-30 | 2016-08-10 | 乐视控股(北京)有限公司 | 语音信号处理方法及装置 |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6276516B2 (ja) * | 2013-05-08 | 2018-02-07 | 日本放送協会 | 辞書作成装置、及び辞書作成プログラム |
JP6485941B2 (ja) * | 2014-07-18 | 2019-03-20 | 日本放送協会 | 言語モデル生成装置、およびそのプログラム、ならびに音声認識装置 |
CN108140019B (zh) | 2015-10-09 | 2021-05-11 | 三菱电机株式会社 | 语言模型生成装置、语言模型生成方法以及记录介质 |
US20200273447A1 (en) * | 2017-10-24 | 2020-08-27 | Beijing Didi Infinity Technology And Development Co., Ltd. | System and method for key phrase spotting |
JP6811811B1 (ja) * | 2019-07-04 | 2021-01-13 | Jcc株式会社 | メタデータ生成システム、映像コンテンツ管理システム及びプログラム |
CN112652311B (zh) * | 2020-12-01 | 2021-09-03 | 北京百度网讯科技有限公司 | 中英文混合语音识别方法、装置、电子设备和存储介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6126095A (ja) * | 1984-07-16 | 1986-02-05 | 富士通株式会社 | 単語間距離の自動算出方法 |
JP2001195087A (ja) * | 2000-01-06 | 2001-07-19 | Mitsubishi Electric Corp | 音声認識システム |
JP3961780B2 (ja) * | 2001-05-15 | 2007-08-22 | 三菱電機株式会社 | 言語モデル学習装置およびそれを用いた音声認識装置 |
JP2005031255A (ja) * | 2003-07-09 | 2005-02-03 | Mitsubishi Electric Corp | 辞書作成装置及び音声認識装置 |
WO2010021368A1 (ja) * | 2008-08-20 | 2010-02-25 | 日本電気株式会社 | 言語モデル作成装置、言語モデル作成方法、音声認識装置、音声認識方法、プログラム、および記録媒体 |
WO2010125736A1 (ja) * | 2009-04-30 | 2010-11-04 | 日本電気株式会社 | 言語モデル作成装置、言語モデル作成方法、およびコンピュータ読み取り可能な記録媒体 |
-
2010
- 2010-02-05 JP JP2010023969A patent/JP5276610B2/ja not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105845133A (zh) * | 2016-03-30 | 2016-08-10 | 乐视控股(北京)有限公司 | 语音信号处理方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2011164175A (ja) | 2011-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6493866B2 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN110675855B (zh) | 一种语音识别方法、电子设备及计算机可读存储介质 | |
JP4769223B2 (ja) | テキスト発音記号変換辞書作成装置、認識語彙辞書作成装置、及び音声認識装置 | |
JP5276610B2 (ja) | 言語モデル生成装置、そのプログラムおよび音声認識システム | |
JP6245846B2 (ja) | 音声認識における読み精度を改善するシステム、方法、およびプログラム | |
JP5310563B2 (ja) | 音声認識システム、音声認識方法、および音声認識用プログラム | |
JP2005258439A (ja) | 文字から音声への変換のための相互情報量基準を用いた大きな文字音素単位の生成 | |
JP5752060B2 (ja) | 情報処理装置、大語彙連続音声認識方法及びプログラム | |
CN108074562B (zh) | 语音识别装置、语音识别方法以及存储介质 | |
JP5326169B2 (ja) | 音声データ検索システム及び音声データ検索方法 | |
JP2007047412A (ja) | 認識文法モデル作成装置、認識文法モデル作成方法、および、音声認識装置 | |
KR20120038198A (ko) | 음성 인식 장치 및 방법 | |
CN111105787B (zh) | 一种文本匹配方法、设备及计算机可读存储介质 | |
JP2010078877A (ja) | 音声認識装置、音声認識方法及び音声認識プログラム | |
WO2009139230A1 (ja) | 言語モデルスコア先読み値付与装置およびその方法ならびにプログラム記録媒体 | |
JP2010139745A (ja) | 統計的発音変異モデルを記憶する記録媒体、自動音声認識システム及びコンピュータプログラム | |
JP2013125144A (ja) | 音声認識装置およびそのプログラム | |
KR20080014680A (ko) | 제곱근 디스카운트를 이용한 통계적 언어에 의한 음성 인식방법 및 시스템 | |
JP5590549B2 (ja) | 音声検索装置および音声検索方法 | |
JP2007017911A (ja) | 音声認識装置及び音声認識プログラム | |
JP4741452B2 (ja) | 言語モデル作成装置及び言語モデル作成プログラム並びに音声認識装置及び音声認識プログラム | |
JP3950957B2 (ja) | 言語処理装置および方法 | |
JP2008026721A (ja) | 音声認識装置、音声認識方法、および音声認識用プログラム | |
JP4733436B2 (ja) | 単語・意味表現組データベースの作成方法、音声理解方法、単語・意味表現組データベース作成装置、音声理解装置、プログラムおよび記憶媒体 | |
JP2012255867A (ja) | 音声認識装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120321 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130226 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130402 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130423 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130517 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |