JP5454469B2 - 音声認識辞書作成支援装置,処理プログラム,および処理方法 - Google Patents

音声認識辞書作成支援装置,処理プログラム,および処理方法 Download PDF

Info

Publication number
JP5454469B2
JP5454469B2 JP2010510981A JP2010510981A JP5454469B2 JP 5454469 B2 JP5454469 B2 JP 5454469B2 JP 2010510981 A JP2010510981 A JP 2010510981A JP 2010510981 A JP2010510981 A JP 2010510981A JP 5454469 B2 JP5454469 B2 JP 5454469B2
Authority
JP
Japan
Prior art keywords
data
cluster
phoneme
phoneme string
speech
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010510981A
Other languages
English (en)
Other versions
JPWO2009136440A1 (ja
Inventor
佐知子 小野寺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2009136440A1 publication Critical patent/JPWO2009136440A1/ja
Application granted granted Critical
Publication of JP5454469B2 publication Critical patent/JP5454469B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/187Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • G10L2015/025Phonemes, fenemes or fenones being the recognition units
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0631Creating reference templates; Clustering

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

本発明は,音声認識処理で使用される音声認識辞書の作成処理を支援する音声認識辞書作成支援装置,処理プログラムおよび処理方法に関する。より詳しくは,音声データから,音声認識辞書に登録するキーワードの候補となる未知語の音声データを抽出する処理に関する。
コールセンタ業務ついて,顧客の問い合わせの種別,質問内容,応対所要時間などの業務内容を把握し,業務分析や業務計画に利用したいという要請がある。そのため,各応対時にオペレータが応対内容を記録し,その応対記録を後から分析することが多くのコールセンタでは行われている。しかし,小規模コールセンタで応対記録を残していない,あるいは,応対記録はあるがそこに残されている情報が少ないために,顧客とオペレータとの対話音声を録音し,その音声対話データを分析する必要がある場合がある。
しかし,音声対話データから応対内容を把握するために,音声データを先頭から全て聴取することは高コストであり困難である。そのため,顧客とオペレータとの間の対話のように話し言葉が主体となる音声データから内容把握に必要な区間を特定するために,音声認識によりキーワードを含む区間を抽出して行う。
しかし,音声認識では,キーワードとなるべき語が未知であれば,既知語に誤認識されたり,認識されず未検出となったりするため,キーワード辞書(キーワードリスト)の維持管理が必要である。特に,コールセンタ業務における顧客とオペレータとの応対を録音した音声データを対象とする場合には,応対中に発話される専門語や固有語などがキーワードとなるため,一般的なキーワード辞書では有効な音声認識処理が実現できない。
従来のキーワード辞書作成処理では,コールセンタでの業務内容に関するマニュアル,関連文書などからキーワードを抽出し,キーワードの音声化データをキーワード辞書に追加していた。または,作業者が音声対話データを先頭から実際に聴取し,キーワードとなる部分を手作業で抽出し追加していた。
また,音声認識時に未知語を抽出する処理手法が知られている。例えば,特許文献1には,未知語が出現することを想定した音声認識用文法を予め用意して,未知語が発生されると想定した区間の音声特徴情報と音韻系列を抽出し,音声特徴情報をもとにクラスタリングし,クラスタリングされた音韻系列の代表音韻系列を未知後として検出して辞書に追加登録する処理が開示されている。
特開2002−358095号公報
従来の,関連文書等からのキーワード抽出処理で抽出されたキーワードは,認識対象の音声対話データが話し言葉であるため,適切なキーワードとして利用できない場合があった。
一方,音声対話データを実際に聴取して手作業で抽出されたキーワードは,音声データの聴取時間が長くなるため,作業コストが非常に高くつくという問題があった。
また,特許文献1の処理では,音声認識用文法構造によって未知語が発声されるであろう区間が予め定められているため,定型化されにくい対話を録音した音声データに適用することが困難であった。
以上のように,音声データから未知のキーワードを抽出する手法は実現されていなかった。
本発明の目的は,音声認識処理用のキーワード辞書を作成・維持処理を支援するために,音声データから,キーワードとなる可能性のある未知語を効率的に抽出する処理を行う装置,処理プログラムおよび処理方法を提供することである。
開示する装置は,音声データを記憶する音声データ記憶部を備えて,音声データから,少なくとも音声のパワー値を含む韻律情報を抽出する。さらに,韻律情報をもとに,音声データから,パワー値が所定の閾値以上である時間が予め定めた時間以上となる発話区間を抽出し,発話区間を所定の閾値以上のパワー値が一定時間以上連続する区間に分割して分割音声データを生成する。
そして,分割音声データに対して音素認識処理を行い,各分割音声データの音素列データを取得し,音素列データに対してクラスタリング処理を行い,分類された音素列データの集合であるクラスタを生成する。
さらに,クラスタ各々について,クラスタを構成する音素列データに対応する分割音声データの韻律情報をもとに,評価値を算出し,評価値が一定以上であるクラスタを候補クラスタとして選択する。候補クラスタ各々について,クラスタを構成する音素列データから1つの音素列データを代表音素列として特定し,代表音素列に対応する分割音声データを聴取対象音声データとして選択する。
選択された聴取対象音声データは,音声データからパワー値にもとづいて切り出された発話区間であり,キーワード候補の語に相当する分割音声データである。
作業者は,音声データを先頭から聴取する必要がなく,キーワードとして採用される可能性がある語が発声されている区間である聴取対象音声データのみを聴取するだけでよい。
本発明によれば,音声データから,キーワードとして選択される可能性が高い語が発声されている区間を特定し,その語を発声している代表的な音声データを聴取対象音声データとして抽出する処理を,音声データ以外の情報を用いることなく,かつ自動化して行うことができる。
これにより,音声データを先頭から聴取しキーワードの発声されている区間を取り出すという高コスト作業が不要となり,キーワード辞書の作成・維持作業の効率化を図ることができる。
本発明の実施の形態における音声認識辞書作成支援装置の構成例を示す図である。 音声認識辞書作成支援装置の処理の概要を示す図である。 音声データ管理テーブルの例を示す図である。 韻律データの例を示す図である。 発話区間テーブルの例を示す図である。 分割データ管理テーブルの例を示す図である。 発話区間抽出および音声データ分割の例を示す図である。 閾値th1,th2の設定例を示す図である。 音素認識結果テーブルの例を示す図である。 クリーニング処理された音素列が格納された音素認識結果テーブルの例を示す図である。 クラスタ管理テーブルの例を示す図である。 評価値算出処理を説明するための図である。 単語らしさ情報による評価値算出処理を説明するための図である。 候補クラスタ選択処理を説明するための図である。 聴取対象データ選択処理を説明するための図である。 出現頻度情報による評価値算出処理(ステップS71)のより詳細な処理フロー図である。 パワー値による評価値算出処理(ステップS73)のより詳細な処理フロー図である。 分割データ管理テーブルのパワー大の値取得処理(ステップS730)のより詳細な処理フロー図である。 ピッチ値による評価値算出処理(ステップS75)のより詳細な処理フロー図である。 分割データ管理テーブルのピッチレンジ大の値取得処理(ステップS750)のより詳細な処理フロー図である。 単語らしさ情報による評価値算出処理(ステップS77)のより詳細な処理フロー図である。 聴取対象データ選択処理(ステップS9)のより詳細な処理フロー図である。 本発明の別の実施の形態における音声認識辞書作成支援装置の構成例を示す図である。 別の実施の形態における音声認識辞書作成支援装置の処理の概要を示す図である。 登録データ生成を説明するための図である。 登録データ生成処理(ステップS31)のより詳細な処理フローを示す図である。
符号の説明
1,1′ 音声認識辞書作成支援装置
10 音声データ記憶部
11 韻律情報抽出部
12 音声データ分割部
13 音素列取得部
14 音素認識部
15 クラスタリング部
16 評価値算出部
17 候補クラスタ選択部
18 聴取対象データ選択部
19 採用判定部
100 音声データ管理テーブル
101 発話区間テーブル
102 分割データ管理テーブル
103 音素認識結果テーブル
104 クラスタテーブル
105 音素列出現確率管理テーブル
20 音声データ
21 韻律データ
22 分割音声データ
23,23′ 音素列データ
24 クラスタデータ
25 辞書候補フレーズ音声データベース
26 音声認識辞書
30 登録情報生成部
31 文字化ルール記憶部
32 読みバリエーションルール記憶部
図1は,本発明の実施の形態における音声認識辞書作成支援装置1の構成例を示す図である。
音声認識辞書作成支援装置1は,音声データからキーワードが発声されている区間(部分データ)を認識するための音声認識辞書26の作成および更新処理を支援する装置であって,音声データ記憶部10,韻律情報抽出部11,音声データ分割部12,音素列取得部13,音素認識部14,クラスタリング部15,評価値算出部16,候補クラスタ選択部17,聴取対象データ選択部18,採用判定部19を備える。
音声データ記憶部10は,音声が録音された音声データ20を保存する。音声データ20は,例えば,コールセンタへ入電された電話応対記録のような話し言葉が主体の対話音声を録音したデータである。
韻律情報抽出部11は,音声データ20から,所定時間ごとの音声のパワー値,ピッチ値などの韻律データ21を抽出する。
音声データ分割部12は,音声データ20の発話区間を特定し,各発話区間を所定の区切りで分割し,分割音声データ22を生成する。
音素列取得部13は,音素認識部14によって認識された音声データ20の音素をもとに,分割音声データ22に相当する音素列データ23を生成する。
音素認識部14は,既知の音声認識手法によって,音声データに含まれる音素を認識する。
クラスタリング部15は,音素列データ23のクリーニングを行い,クリーニングされた音素列データ23′を,既知のクラスタリング手法によって分類し,分類したクラスタに関するクラスタデータ24を生成する。
評価値算出部16は,所定の評価手法を用いて,クラスタデータ24の各クラスタの評価値を算出する。
候補クラスタ選択部17は,クラスタデータ24のクラスタから,評価値の高いクラスタをクラスタ候補として選択する。
聴取対象データ選択部18は,候補クラスタごとに,クラスタを構成する音素列データ23から代表音素列を特定し,代表音素列に相当する分割音声データ22を聴取対象データとして選択し,辞書候補フレーズ音声データベース25に蓄積する。
採用判定部19は,辞書候補フレーズ音声データ25に蓄積された分割音声データ22を再生し,音声認識辞書26への登録データとして採用するか否かを判定し,採用判定された分割音声データ22を音声認識辞書26へ登録する。
図2は,音声認識辞書作成支援装置1の処理の概要を示す図である。
ステップS1:韻律データ抽出
韻律情報抽出部11は,所定の記憶部に格納され音声データ管理テーブル100で管理されている音声データ20から,一定時間ごとのパワー値およびピッチ値を算出し,パワー値ファイル,ピッチ値ファイルを生成する。
図3は,音声データ管理テーブル100の例を示す図である。
音声データ管理テーブル100は,wav_id,音声データ,付帯情報,韻律データの項目で構成される。wav_idには音声データ20の識別情報,音声データには音声データ20のファイル名,付帯情報には音声データ20の録音者の属性(性別や氏名など)の情報,韻律データには音声データ20のパワー値ファイル,ピッチ値ファイルのファイル名がそれぞれ格納される。
図4は,韻律データ21の例を示す図である。図4(A)は,音声データ(wav_id=20070921001)から生成されたパワー値ファイル(a1_pow.txt)21a,図4(B)は,ピッチ値ファイル(a1_pit.txt)21bの例である。
図4(A)のパワー値ファイル21aは,一定時間(12.8[msec])ごとのパワー値列で構成され,各行は[時間,パワー値]を表す。
図4(B)のピッチ値ファイル21bは,一定時間(12.8[msec])ごとのピッチ値列で構成され,各行は[時間,ピッチ値]を表す。なお,ピッチ値は,算出可能な区間のみが記録される。
ステップS2:発話区間抽出
音声データ分割部12は,パワー値ファイル21aをもとに,音声データ20から閾値th1以上のパワー値が連続かつその連続区間が最低発話時間以上である区間を,発話区間として検出する。また,検出した発話区間を発話区間テーブル101に登録する。
図5は,発話区間テーブル101の例を示す図である。発話区間テーブル101は,utterance_id,wav_id,開始,終了の項目で構成される。utterance_idには発話区間の識別情報,wav_idには発話区間を含む音声データ20の識別情報,開始には発話区間の開始時刻[msec],終了には発話区間の終了時刻[msec]がそれぞれ格納される。
ステップS3:音声データ分割
音声分割データ部12は,パワー値ファイル21aをもとに,音声データ20の各発話区間について,閾値th2以上のパワー値が連続する区間を検出し,検出した区間の音声データから分割音声データ22を生成,保存する。また,生成した分割音声データ22を分割データ管理テーブル102に登録する。
図6は,分割データ管理テーブル102の例を示す図である。分割データ管理テーブル102は,split_id,wav_id,開始,終了の項目で構成される。split_idには分割音声データ22の識別情報,wav_idには発話区間を含む音声データ20の識別情報,開始には分割音声データ22の開始時刻[msec],終了には分割音声データ22の終了時刻[msec]がそれぞれ格納される。
図7は,発話区間抽出および音声データ分割の例を示す図である。
図7の上段は,音声データ20の波形例を示し,図7の下段は音声データ20のパワー値の例を示す。音声データ20の音声のパワー値が閾値th1より大きい状態が一定時間以上連続する区間が発話区間として検出される。さらに,各発話区間から,パワー値が閾値th2より大きい状態が一定時間以上連続する区間ごとに分割されて,分割音声データ22が生成される。
発話区間抽出(ステップS2)および音声データ分割(ステップS3)の各処理で使用される閾値th1,th2は,図8(A)または図8(B)に示すいずれかの算出処理で設定される。
図8(A)の算出処理では,入力となる音声データ20の全ての音圧の頻度分布を取得し,この頻度分布において「谷」となっている音圧値,すなわち頻度値が最小の音圧値を閾値th1とする。
図8(B)の算出処理では,入力となる音声データの音圧変化(差)が一定値を超える箇所の音圧値(低い値)の頻度分布を取得し,この頻度分布において頻度値が最大の音圧値を閾値th1とする。
閾値th2の場合は,処理対象の発話区間に相当する音声データ20を入力として同様の処理によって算出する。
ステップS4:音素列取得
音素認識部14は,分割音声データ22から音素を認識する。音素認識部14は,既知の音素認識処理を実施する処理手段である。音声認識処理手法は,既知の処理手法であって,中間情報として音素データを出力できる手法であればよい。例えば,「Julius音声認識エンジン(http://julius.sourceforge.jp/)」のような処理装置を使用してもよい。ここで,音素は,モノフォン(monophone),トライフォン(triphone)でもよく,また,ラティスであってもよい。
音素列取得部13は,音素認識部14の処理結果である音素認識結果をもとに,分割音声データ22に相当する音素列データ23を生成する。また,生成した音素列データ23を,音素認識結果テーブル103に登録する。
図9は,音素認識結果テーブル103の例を示す図である。音素認識結果テーブル103は,split_id,音素認識結果,クリーニング結果の項目で構成される。
split_idには分割音声データ22の識別情報,音素認識結果には音素認識部14で生成された音素列データ23,クリーニング結果には,後述するクリーニング処理が施された音素列データ23′が格納される。
例えば,split_id=20070921001_1_1の分割音声データ22に対する音声認識処理によって,音素列データ「tqhoou」が得られる。
ステップS5:音素列クリーニング
音素列取得部13は,所定のクリーニング規則を適用して,音素認識部14の処理結果である音素認識結果(音素列)に対してクリーニング処理を行う。
以下に,クリーニング規則の例を以下に示す。
・クリーニング規則1:長音(例えば,“o:”,“ou”)と単音(例えば,“o”)をまとめる。
・クリーニング規則2:不確かな結果を除去する(例えば,促音の連続を除去する)。
・クリーニング規則3:音素列中の子音の連続を除去する
・クリーニング規則4:音素列中の無音区間(<sp>)がある場合に,その箇所で分割する。
なお,音素列データ23が無音区間で分割された場合には,音素認識結果テーブル103に,一行追加し,分割した音素列データの新たな識別情報(split_id)を付与して登録する。
図10は,クリーニング処理された音素列データ23′が格納された音素認識結果テーブル103の例を示す図である。
音素列データ23「tqhoou」がクリーニング処理され,音素列データ23′「hou」が得られる。
ステップS6:クラスタリング
クラスタリング部15は,既知のクラスタリング手法を用いて全ての音素列データ23′を分類し,分類した音素列データ23′の集合(クラスタ)のクラスタデータ24を生成する。
クラスタデータ24は,図11に示すクラスタテーブル104として実施される。
クラスタテーブル104は,split_id,クラスタID,スコア,選別結果の項目で構成される。
split_idには分割音声データ22(音素列)の識別情報,クラスタIDには音素列データ23が分類されたクラスタの識別情報,スコアにはクラスタの評価値,選別結果には聴取対象データとして選別されたかを示す情報が格納される。
ステップS7:評価値算出
評価値算出部16は,以下の評価処理の1つまたは複数を組み合わせて,クラスタデータ24の各クラスタについて評価値(スコア)を算出する。
本実施例では,評価値算出部16は,以下の複数の評価処理を行い,その算出値の総和をスコアSとする。
評価値算出処理S71:出現頻度情報による評価値算出
評価値算出処理S73:パワー値による評価値算出
評価値算出処理S75:ピッチ値による評価値算出
評価値算出処理S77:単語らしさ情報による評価値算出
(1)評価値算出処理S71:出現頻度情報による評価値算出
評価値算出部16は,図12に示すように,音声データ管理テーブル100,分割データ管理テーブル102を用いて,以下の式(1)で各クラスタのスコアAを算出し,音素列出現確率管理テーブル105に記録する。
スコアA=クラスタ中の音素列が出現する音声データの数/全音声データ数 式(1)
スコアAは,ドキュメント(テキスト)データ評価処理の文書頻度(DF)に相当するスコアであり,高い頻度で出現する情報を含むクラスタを,より良く評価するものである。発話中に重要な語句は何度も繰り返し発声される傾向を利用し,比較的多く発声されている同じ語を示すデータを多く含むクラスタを良いクラスタとして評価することによって,評価精度を高くすることができる。
(2)評価値算出処理S73:パワー値による評価値算出
評価値算出部16は,図12に示すように,分割データ管理テーブル102にパワー大の項目を追加構成する。そして,分割音声データ22のパワー値が,その分割音声データ22が含まれる音声データ20の平均パワー値を超える場合に,分割データ管理テーブル102の「パワー値大」にフラグ(=1)を設定する。
さらに,分割データ管理テーブル102のパワー値大にフラグ(1)が設定された分割音声データ22の全分割音声データの数に対する出現頻度を以下の式(2)で算出する。
スコアB=フラグ設定された分割音声データの数/全分割音声データ数 式(2)
スコアBは,重要な語句は,はっきり大きく発声されるという特徴を前提に,大きな声で発声されているデータを含むクラスタを,より良く評価するものである。発話中に重要な語句は他に比べてはっきり大きく発声される傾向を利用して,他より大きな声で発声しているデータを多く含むクラスタを良いクラスタとして評価することによって,評価精度を高くすることができる。
(3)評価値算出処理S75:ピッチ値による評価値算出
評価値算出部16は,図12に示すように,分割データ管理テーブル102にピッチレンジ大の項目を追加構成する。そして,分割音声データ22のピッチレンジの値が,その分割音声データ22が含まれる音声データ20の平均ピッチレンジの値を超える場合に,分割データ管理テーブル102の「ピッチレンジ大」にフラグ(=1)を設定する。
さらに,分割データ管理テーブル102のピッチレンジ大にフラグ(1)が設定された分割音声データ22の全分割音声データの数に対する出現頻度を以下の式(3)で算出する。
スコアC=フラグ設定された分割音声データの数/全分割音声データ数 式(3)
スコアCは,重要な語句は,はっきり大きく発声されるという特徴を前提に,抑揚ある(ピッチレンジが広い)声で発声されているデータを含むクラスタを,より良く評価するものである。発話中に重要な語句は他に比べて抑揚をつけて発声される傾向を利用し,他より抑揚すなわちピッチレンジが大きくなっている声で発声しているデータを多く含むクラスタを良いクラスタとして評価することによって,評価精度を高くすることができる。
(4)評価値算出処理S77:単語らしさ情報による評価値算出
ステップS77の処理を実施する場合には,音声認識辞書作成支援装置1は,評価値算出部16が形態素解析処理で使用される形態素解析辞書27および文字化ルール記憶手段28を参照できるように構成されている。
図13(A)に示すように,評価値算出部16は,形態素解析辞書27から,名詞,動詞などキーワードとして使用される品詞に分類されている語句を抽出し,抽出した語句のn−gramを作成する。さらに,図13(B)に示すように,クラスタを構成する音素列データ23′の共通部分を抽出し,共通音素列(例えば,“mobairunmeru”)について文字化ルールを参照して文字列(例えば,“もばいるめる”)を生成する。
そして,n−gramを用いて,共通音素列の抽出語句の文字列における出現確率を算出し,各クラスタの出現確率を音素列出現確率管理テーブル105に記録する。この出現確率をスコアDとする。
スコアDは,“えっと”,“あのー”などの間投詞をキーワード選択の対象から除去し,キーワードとなる「単語らしさの度合い」が高いデータを含むクラスタを,より良く評価するものである。キーワードらしさの度合いを用いることによって,評価精度を高くすることができる。
ステップS71,73,75,77の各処理の後,評価値算出部16は,以下の式(4)で各クラスタのスコアSを算出する。
スコアS=α*A+β*B+γ*C+δ*D (4)
(α+β+γ+δ=1,0≦α≦1,0≦β≦1,0≦γ≦1,0≦δ≦1)
ステップS8:候補クラスタ選択
候補クラスタ選択部17は,クラスタテーブル104のスコアをもとに,スコア値が高いクラスタを候補クラスタとして選択する。例えば,スコア値が閾値th3以上のクラスタ,またはスコア値が高い順における上位n個のクラスタを選択する。
そして,図14に示すように,クラスタテーブル104の選択したクラスタIDの選択結果の項目に候補クラスタとして選択されたことを示すフラグ(=○)を設定する。なお,候補クラスタとして選択しないことを示す値(=×)を設定してもよい。
ステップS9:聴取対象データ選択
聴取対象データ選択部18は,図15(A)に示すように,クラスタテーブル104の選択された候補クラスタについて,候補クラスタを構成する音素列データ23′から以下の方法で代表音素列を選択する。
・選択規則1:クラスタの音素列中,列長が最長の音素列を代表音素列とする。
・選択規則2:クラスタの音素列中,各音素列に対応する分割音声データ数が最多の音素列を代表音素列とする。
・選択規則3:ステップS77の処理と同様の処理によって,各音素列の「単語らしさの度合い」を算出し,値の大きい音素列を代表音素列とする。
図15(B)に示すように,クラスタID=id5を構成する音素列データ23′から,音素列数が多い音素列データの1つを代表音素列として選択する。例えば,split_id=20070921001_1_1,音素列=mobairunmeruである音素列データ23′を代表音素列として選択する。
そして,図15(c)に示すように,選択した代表音素列に対応する分割音声データ22_1を選択し,聴取対象データとして出力し,辞書候補フレーズ音声データベース25に格納する。
ここで,聴取対象として選択される音声データの属性を示す指定タイプ110がユーザによって入力されている場合には,音声データ管理テーブル100の付帯情報を参照し,付帯情報が合致する分割音声データ22を辞書候補フレーズ音声データベース25に格納する。
指定タイプ110は,例えば,音圧が大きい声,女性の声などが指定された情報である。ユーザにとって聴きやすい音声性質を指定可能とするためである。
なお,属性を指定する指定タイプ110を用いずに聴取対象データ選択処理を行う場合には,音声データ管理テーブル100の付帯情報の項目も必要ない。
その後,採用判定部19は,辞書候補フレーズ音声データベース25に格納された分割音声データ22を再生する。採用判定部19は,再生された音声を聴取したユーザが,音声認識辞書26への登録データとして採用するか否かの決定を行えるインターフェースを設け,採用可否の指定を入力し,採用可が入力された場合に,その分割音声データ22を音声認識辞書26へ登録する。
図16〜図21は,評価値算出処理(ステップS7)のステップS71,S73,S75,S77の各処理のより詳細な処理フロー図である。
図16は,出現頻度情報による評価値算出処理(ステップS71)のより詳細な処理フロー図である。
評価値算出部16は,c−idにクラスタテーブル104の最初のクラスタIDを代入し,check_wav集合を空にする(ステップS710)。
そして,未処理のc−idがあれば(ステップS711のYES),クラスタテーブル104のクラスタIDがc_idとなるsplit_idを検出し,s_idへ代入する(ステップS712)。
さらに,未処理のs_idがあれば(ステップS713のYES),s_idに対応するwav_idを分割データ管理テーブル102から取得する(ステップS714)。
さらに,check_wav集合の要素にwav_idがなければ(ステップS715のYES),check_wav集合の要素にwav_idを追加する(ステップS716)。check_wav集合の要素にwav_idがあれば(ステップS715のNO),ステップS712の処理へ戻る。
ステップS713において,未処理のs_idがなければ(ステップS713のNO),check_wav集合の要素数をXに代入し,スコアA_x=X/N(N=全音声データ数)を算出する(ステップS717)。
そして,check_wav集合を空にし,c−idにクラスタテーブル104の次のクラスタIDを代入し,ステップS711の処理へ戻る(ステップS718)。
ステップS711において,未処理のc−idがなければ(ステップS711のNO),処理を終了する。
図17は,パワー値による評価値算出処理(ステップS73)のより詳細な処理フロー図である。
評価値算出部16は,分割データ管理テーブル102のパワー大の値を取得する(ステップS730)。ステップS730の処理の詳細は後述する。
次に,c−idにクラスタテーブル104の最初のクラスタIDを代入し,powerに0(ゼロ),s_id_numに0(ゼロ)を代入する(ステップS731)。
未処理のc−idがあれば(ステップS732のYES),クラスタテーブル104のクラスタIDがc_idとなるsplit_idを検出し,s_idへ代入する(ステップS733)。
さらに,未処理のs_idがあれば(ステップS734のYES),s_id_numをインクリメント(1加算)し(ステップS735),s_idに対応するパワー大のデータを取得する(ステップS736)。パワー大にフラグ(1)が設定されていれば(ステップS737のYES),powerをインクリメントする(ステップS738)。パワー大にフラグ(1)が設定されていなければ(ステップS737のNO),ステップS733の処理へ戻る。
ステップS734において,未処理のs_idがなければ(ステップS734のNO),スコアB_x=power/s_id_numを算出する(ステップS739)。
そして,c−idにクラスタテーブル104の次のクラスタIDを代入し,power,s_id_numにそれぞれ0(ゼロ)を代入し,-ステップS731の処理へ戻る(ステップS740)。
ステップS732において,未処理のc−idがなければ(ステップS732のNO),処理を終了する。
図18は,分割データ管理テーブル102のパワー大の値取得処理(ステップS730)のより詳細な処理フロー図である。
評価値算出部16は,音声データ管理テーブル100から順に,wav_idを取得し(i=wav_id)(ステップS7300),対応するパワー値ファイル名を得て,パワー値ファイル21aを取得する(ステップS7301)。パワー値ファイル21aからiの平均パワー値(Ave_i)を算出する(ステップS7302)。
次に,分割データ管理テーブル102から,wav_idに対応するsplit_idを順に取得し(j=split_id)(ステップS7303),jの開始時刻,終了時刻を取得して,対応する区間の平均音圧(Ave_ij)を算出する(ステップS7304)。
平均音圧Ave_ijと平均パワー値Ave_iとを比較し,Ave_ij>=Ave_iである場合のみ(ステップS7305のYES),分割データ管理テーブル102のjのパワー大にフラグ(1)を設定する(ステップS7306)。
次のsplit_idをjへ入力し,未処理のjがあれば(ステップS7307のYES),ステップS7304の処理へ戻る。未処理のjがなければ(ステップS7307のNO),ステップS7308の処理へ進む。
さらに,次のwav_idをiへ入力し,未処理のiがあれば(ステップS7308のYES),ステップSS7302の処理へ戻る。未処理のiがなければ(ステップS7308のNO),ステップS7308の処理を終了する。
図19は,ピッチ値による評価値算出処理(ステップS75)のより詳細な処理フロー図である。
評価値算出部16は,分割データ管理テーブル102のピッチレンジ大の値を取得する(ステップS750)。ステップS750の処理の詳細は後述する。
次に,c−idにクラスタテーブル104の最初のクラスタIDを代入し,pitchに0(ゼロ),s_id_numに0(ゼロ)を代入する(ステップS751)。
未処理のc−idがあれば(ステップS752のYES),クラスタテーブル104のクラスタIDがc_idとなるsplit_idを検出し,s_idへ代入する(ステップS753)。
さらに,未処理のs_idがあれば(ステップS754のYES),s_id_numをインクリメントし(ステップS755),s_idに対応するピッチレンジ大の値を取得する(ステップS756)。ピッチレンジ大にフラグ(1)が設定されていれば(ステップS757のYES),pitchをインクリメントする(ステップS758)。ピッチレンジ大にフラグ(1)設定されていなければ(ステップS757のNO),ステップS753の処理へ戻る。
ステップS754において,未処理のs_idがなければ(ステップS754のNO),スコアC_x=pitch/s_id_numを算出する(ステップS759)。
そして,c−idにクラスタテーブル104の次のクラスタIDを代入し,pitch,s_id_numにそれぞれ0(ゼロ)を代入し,-ステップS751の処理へ戻る(ステップS760)。
ステップS752において,未処理のc−idがなければ(ステップS752のNO),処理を終了する。
図20は,分割データ管理テーブル102のピッチレンジ大の値取得処理(ステップS750)のより詳細な処理フロー図である。
評価値算出部16は,音声データ管理テーブル100から順に,wav_idを取得し(i=wav_id)(ステップS7500),対応するピッチ値ファイル名を得て,ピッチ値ファイル21bを取得する(ステップS7501)。
発話区間テーブル101から,順にwav_id=iのutterance_idを取得し(u=utterance_id)(ステップS7502),ピッチ値ファイル21bから各発話区間(utteranceの区間)のピッチレンジを算出し,平均ピッチレンジ(Ave_i)を算出する(ステップS7503)。
次に,分割データ管理テーブル102から,wav_idに対応するsplit_idを順に取得し(j=split_id)(ステップS7504),jの開始時刻,終了時刻を取得して,対応する区間のピッチレンジ(range_ij)を算出する(ステップS7505)。
区間のピッチレンジrange_ijと平均ピッチレンジAve_iとを比較し,range_ij>=Ave_iである場合のみ(ステップS7506のYES),分割データ管理テーブル102のjのパワーレンジ大にフラグ(1)を設定する(ステップS7507)。
次のsplit_idをjへ入力し,未処理のjがあれば(ステップS7508のYES),ステップS7505の処理へ戻る。未処理のjがなければ(ステップS7508のNO),ステップS7509の処理へ進む。
さらに,次のwav_idをiへ入力し,未処理のiがあれば(ステップS7509のYES),ステップSS7502の処理へ戻る。未処理のiがなければ(ステップS7509のNO),ステップS7502の処理を終了する。
図21は,単語らしさ情報による評価値算出処理(ステップS77)のより詳細な処理フロー図である。
評価値算出部16は,c−idにクラスタテーブル104の最初のクラスタIDを代入する(ステップS770)。
クラスタテーブル104のクラスタIDがc_idとなる音素列データ23′を全て取得し(ステップS771),共通音素列部分を取得する(ステップS772)。さらに,文字化ルール記憶部28を参照して,共通音素列部分の文字列を取得する(ステップS773)。形態素解析辞書27を用いて,n−gramデータによる共通音素列部分の所定の抽出語句における出現確率を算出し(ステップS774),音素列出現確率管理テーブル105に,出現確率を格納する(ステップS775)。
c−idにクラスタテーブル104の次のクラスタIDを代入する(ステップS776),未処理のc−idがあれば(ステップS777のYES),ステップS771の処理へ戻り,未処理のc−idがなければ(ステップS777のNO),処理を終了する。
図22は,聴取対象データ選択処理(ステップS9)のより詳細な処理フロー図である。
聴取対象データ選択部18は,クラスタテーブル104から,候補クラスタに選択されたクラスタのクラスタIDを順に取得し,c_idに代入する(ステップS90)。
未処理のc_idがあれば(ステップS91のYES),クラスタテーブル104からクラスタIDがc_idとなるsplit_idを検出し,s_idへ代入する(ステップS92)。
さらに,未処理のs_idがあれば(ステップS93のYES),音素認識結果テーブル103からクリーニング結果(音素列データ23′)を取得して,onsoに代入する(ステップS94)。さらに,onsoの“母音,N”の数をカウントし,length(s_id)として(ステップS95),ステップS92の処理へ戻る。
ステップS93において,未処理のs_idがなければ(ステップS93のNO),length(s_id)が最大となるs_idを得て,s_id_max集合へ入れる(ステップS96)。なお,該当するs_idは複数であってもよい。
そして,s_id_max集合中のsplit_idについて分割データ管理テーブル102からwav_idを取得し,音声データ管理テーブル100から付帯情報を取得する(ステップS97)。指定タイプ110に合致したsplit_idをcandidate_wav集合へ入れ(ステップS98),ステップS90の処理へ戻る。
ステップS91の処理において,未処理のc_idがなければ(ステップS91のNO),candidate_wav集合の各split_idに対応した分割音声データ22を辞書候補フレーズ音声データベース25へ格納する(ステップS99)。
このようにして,音声認識辞書作成支援装置1は,音声認識辞書26に登録されるキーワードの候補となる音声データを自動的に抽出し,音声認識辞書作成処理を支援することができる。
音声認識辞書作成支援装置1をコールセンタ業務向けの音声認識辞書26の作成支援に適用する場合には,コールセンタにおける全業務の集合X(要素x)を設定し,未処理の業務xを選択して,業務xについての聴取対象データを選択する。具体的には,図2の処理フローのステップS5の音素列クリーニング処理が施された音素列データ23′から業務xの音素列データ23′についてステップS6〜S9の処理を行う。これにより,各業務についての聴取対象データを出力することができる。
図23は,本発明の別の実施の形態における構成例を示す図である。
図23の音声認識辞書作成支援装置1′の構成は,図1に示す音声認識辞書作成支援装置1の構成とほぼ同様であるが,聴取対象データ選択部18の代わりに,登録情報生成部30,文字化ルール記憶部31,読みバリエーションルール記憶部32を備える。
登録情報生成部30は,文字化ルール記憶部31および読みバリエーションルール記憶部32を参照して,代表音素列の音素を文字列に変換し,変換した文字列をもとに,代表音素列を示す表記または読みの登録データを生成し,音声認識辞書26に登録する。
文字化ルール記憶部31は,音素と読み文字との対応規則である文字化ルールを記憶する。
読みバリエーションルール記憶部32は,音素の読み文字列のバリエーションを記憶する。
図24は,音声認識辞書作成支援装置1′の処理の概要を示す図である。
図24のステップS1〜ステップS8までの各処理ステップは,図2に示す同符号の処理ステップと同じものを示す。ステップS8の処理の後,ステップS30〜S32が実行される。
ステップS30:代表音素列取得
登録情報生成部30は,クラスタテーブル104のフラグ(○)が設定された候補クラスタから,代表音素列となる音素列データ23′を取得する。
ステップS31:登録データ作成
登録情報生成部30は,図25に示すように,文字化ルール記憶部31を参照して,代表音素列の音素列データ23′の音素列に相当する文字列を生成する。生成した文字列を,代表音素列に対応する分割音声データ22の表記および読みとする。
さらに,読みバリエーションルール記憶部32を参照して,異なる読みがあれば,異なる読み文字列を生成する。
そして,生成した表記の文字列と1つまたは複数の読み文字列との対を登録データとする。
例えば,代表音素列の音素列データ23′の音素列“mobairunmeru”に相当する文字列“もばいるめる”を生成した場合に,この代表音素列に相当する分割音声データ22の表記および読みを“もばいるめる”とする。さらに,読み“もばいるめる”に他の読みバリエーションがあれば,異なる読み文字列“もばいるめーる”を生成する。
そして,表記“もばいるめる”と読み“もばいるめる,もばいるめーる”の対とが登録データとなる。
ステップS32:辞書追加
登録情報生成部30は,生成した登録データを音声認識辞書26に登録する。
図26は,ステップS31の登録データ生成処理のより詳細な処理フローを示す図である。
登録情報生成部30は,候補クラスタの代表音素列である音素列データ23′から1つの音素列xを取得する(ステップS310)。音素列xがあれば(ステップS311のYES),文字化ルール記憶部31の文字化ルールを適用して代表音素文字列を文字列yへ変換する(ステップS312)。
さらに,読みバリエーションルール記憶部32の読みバリエーションルールを文字列yに適用し,他の文字列z1,z2,…を取得する(ステップS313)。
「表記=文字列y,読み=文字列y,文字列z1,文字列z2,…」である登録データを生成する(ステップS314)。
生成された登録データは,音声認識辞書26へ登録される。
このようにして,音声認識辞書作成支援装置1′は,音声認識辞書26に登録される,音声データ20から抽出されたキーワードの情報が自動的に生成することができる。

Claims (10)

  1. 音声データを記憶する音声データ記憶部と,
    前記音声データから,少なくとも音声のパワー値を含む韻律情報を抽出する韻律情報抽出部と,
    前記韻律情報をもとに,前記音声データから,前記パワー値が所定の閾値以上である時間が予め定めた時間以上となる発話区間を抽出し,該発話区間を所定の閾値以上のパワー値が一定時間以上連続する区間に分割して分割音声データを生成する音声データ分割部と,
    前記分割音声データに対して音素認識処理を行い,各分割音声データの音素列データを取得する音素列取得部と,
    前記音素列データに対してクラスタリング処理を行い,分類された音素列データの集合であるクラスタを生成するクラスタリング部と,
    前記クラスタ各々について,該クラスタを構成する音素列データに対応する分割音声データの前記韻律情報をもとに,評価値を算出する評価値算出部と,
    前記評価値が一定以上であるクラスタを候補クラスタとして選択する候補クラスタ選択部と,
    前記候補クラスタ各々について,該クラスタを構成する音素列データから1つの音素列データを代表音素列として特定し,当該代表音素列に対応する分割音声データを聴取対象音声データとして選択する聴取対象データ選択部とを備える
    音声認識辞書作成支援装置。
  2. 前記評価値算出部は,前記音素列データに対応する分割音声データの前記韻律情報のパワー値が一定の大きさ以上である音素列データのデータ数にもとづいて,前記クラスタの評価値を算出する
    請求項1に記載の音声認識辞書作成支援装置。
  3. 前記韻律情報抽出部は,前記韻律情報として音声のピッチ値を含む韻律情報を抽出し,
    前記評価値算出部は,前記音素列データに対応する分割音声データの前記韻律情報のピッチ値のレンジが一定の大きさ以上である音素列データのデータ数にもとづいて,前記クラスタの評価値を算出する
    請求項1または請求項2に記載の音声認識辞書作成支援装置。
  4. 前記評価値算出部は,前記音素列データ各々の全分割音声データにおける出現頻度を算出し,当該出現頻度にもとづいて,前記クラスタの評価値を算出する
    請求項1ないし請求項3のいずれか一項に記載の音声認識辞書作成支援装置。
  5. 前記聴取対象データ選択部は,前記候補クラスタから,音素列長が最長の音素列データを前記代表音素列として特定する
    請求項1ないし請求項のいずれか一項に記載の音声認識辞書作成支援装置。
  6. 前記聴取対象データ選択部は,形態素解析処理用の辞書データを備え,当該辞書データから所定の品詞に分類される語句を抽出し,前記候補クラスタを構成する音素列データの当該抽出した語句における出現確率を算出し,当該出現確率が最大の音素列データを前記代表音素列として特定する
    請求項1ないし請求項5のいずれか一項に記載の音声認識辞書作成支援装置。
  7. 前記音声データの属性に関連する付帯情報を記憶する付帯情報記憶部を備え,
    前記聴取対象データ選択部は,外部から入力された音声データの属性が指定された指定条件を取得し,前記付帯情報を参照して,前記代表音素列に対応する分割音声データから当該指定条件に一致する属性の分割音声データを選択する
    請求項1ないし請求項のいずれか一項に記載の音声認識辞書作成支援装置。
  8. 音素文字との変換規則を示す文字化ルールを記憶する文字化ルール記憶部と,
    当該文字化ルールをもとに,前記代表音素列の各音素を文字に変換して文字列を生成し,当該文字列を表記または読みとする,音声認識用辞書の登録データを生成する登録データ生成部とを備える
    請求項1ないし請求項のいずれか一項に記載の音声認識辞書作成支援装置。
  9. コンピュータを,
    音声データを記憶する音声データ記憶部と,
    前記音声データから,少なくとも音声のパワー値を含む韻律情報を抽出する韻律情報抽出部と,
    前記韻律情報をもとに,前記音声データから,前記パワー値が所定の閾値以上である時間が予め定めた時間以上となる発話区間を抽出し,該発話区間を所定の閾値以上のパワー値が一定時間以上連続する区間に分割して分割音声データを生成する音声データ分割部と,
    前記分割音声データに対して音素認識処理を行い,各分割音声データの音素列データを取得する音素列取得部と,
    前記音素列データに対してクラスタリング処理を行い,分類された音素列データの集合であるクラスタを生成するクラスタリング部と,
    前記クラスタ各々について,該クラスタを構成する音素列データに対応する分割音声データの前記韻律情報をもとに,評価値を算出する評価値算出部と,
    前記評価値が一定以上であるクラスタを候補クラスタとして選択する候補クラスタ選択部と,
    前記候補クラスタ各々について,該クラスタを構成する音素列データから1つの音素列データを代表音素列として特定し,当該代表音素列に対応する分割音声データを聴取対象音声データとして選択する聴取対象データ選択部とを備える処理装置として
    機能させるための音声認識辞書作成支援処理プログラム。
  10. 音声データを記憶する音声データ記憶部を備えるコンピュータが,実行する処理方法であって,
    音声データ記憶部に格納された音声データから,少なくとも音声のパワー値を含む韻律情報を抽出する処理ステップと,
    前記韻律情報をもとに,前記音声データから,前記パワー値が所定の閾値以上である時間が予め定めた時間以上となる発話区間を抽出し,該発話区間を所定の閾値以上のパワー値が一定時間以上連続する区間に分割して分割音声データを生成する処理ステップと,
    前記分割音声データに対して音素認識処理を行い,各分割音声データの音素列データを取得する処理ステップと,
    前記音素列データに対してクラスタリング処理を行い,分類された音素列データの集合であるクラスタを生成する処理ステップと,
    前記クラスタ各々について,該クラスタを構成する音素列データに対応する分割音声データの前記韻律情報をもとに,評価値を算出する処理ステップと,
    前記評価値が一定以上であるクラスタを候補クラスタとして選択する処理ステップと,
    前記候補クラスタ各々について,該クラスタを構成する音素列データから1つの音素列データを代表音素列として特定し,当該代表音素列に対応する分割音声データを聴取対象音声データとして選択する処理ステップとを備える
    音声認識辞書作成支援処理方法。
JP2010510981A 2008-05-09 2008-05-09 音声認識辞書作成支援装置,処理プログラム,および処理方法 Expired - Fee Related JP5454469B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2008/058615 WO2009136440A1 (ja) 2008-05-09 2008-05-09 音声認識辞書作成支援装置,処理プログラム,および処理方法

Publications (2)

Publication Number Publication Date
JPWO2009136440A1 JPWO2009136440A1 (ja) 2011-09-01
JP5454469B2 true JP5454469B2 (ja) 2014-03-26

Family

ID=41264502

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010510981A Expired - Fee Related JP5454469B2 (ja) 2008-05-09 2008-05-09 音声認識辞書作成支援装置,処理プログラム,および処理方法

Country Status (4)

Country Link
US (1) US8423354B2 (ja)
JP (1) JP5454469B2 (ja)
GB (1) GB2471811B (ja)
WO (1) WO2009136440A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5434731B2 (ja) * 2010-03-24 2014-03-05 トヨタ自動車株式会社 音声認識システム及び自動検索システム
US9646613B2 (en) * 2013-11-29 2017-05-09 Daon Holdings Limited Methods and systems for splitting a digital signal
JP6413263B2 (ja) * 2014-03-06 2018-10-31 株式会社デンソー 報知装置
US11276390B2 (en) * 2018-03-22 2022-03-15 Casio Computer Co., Ltd. Audio interval detection apparatus, method, and recording medium to eliminate a specified interval that does not represent speech based on a divided phoneme
CN111063372B (zh) * 2019-12-30 2023-01-10 广州酷狗计算机科技有限公司 确定音高特征的方法、装置、设备及存储介质
CN111862954B (zh) * 2020-05-29 2024-03-01 北京捷通华声科技股份有限公司 一种语音识别模型的获取方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63165900A (ja) * 1986-12-27 1988-07-09 沖電気工業株式会社 会話音声認識方式
JP2003241788A (ja) * 2002-02-20 2003-08-29 Ntt Docomo Inc 音声認識装置及び音声認識システム
JP2007213005A (ja) * 2006-01-10 2007-08-23 Nissan Motor Co Ltd 認識辞書システムおよびその更新方法
JP2007293600A (ja) * 2006-04-25 2007-11-08 Ziosoft Inc 医療用サーバ装置、入力装置、校正装置、閲覧装置、音声入力レポートシステムおよびプログラム

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0720889A (ja) 1993-06-30 1995-01-24 Omron Corp 不特定話者の音声認識装置および方法
US5806030A (en) * 1996-05-06 1998-09-08 Matsushita Electric Ind Co Ltd Low complexity, high accuracy clustering method for speech recognizer
US5933805A (en) * 1996-12-13 1999-08-03 Intel Corporation Retaining prosody during speech analysis for later playback
US6092044A (en) * 1997-03-28 2000-07-18 Dragon Systems, Inc. Pronunciation generation in speech recognition
US6078885A (en) * 1998-05-08 2000-06-20 At&T Corp Verbal, fully automatic dictionary updates by end-users of speech synthesis and recognition systems
US6192333B1 (en) * 1998-05-12 2001-02-20 Microsoft Corporation System for creating a dictionary
US6317707B1 (en) * 1998-12-07 2001-11-13 At&T Corp. Automatic clustering of tokens from a corpus for grammar acquisition
US7120575B2 (en) * 2000-04-08 2006-10-10 International Business Machines Corporation Method and system for the automatic segmentation of an audio stream into semantic or syntactic units
JP2002116788A (ja) 2000-10-04 2002-04-19 Sharp Corp 音素認識装置および方法
GB0027178D0 (en) * 2000-11-07 2000-12-27 Canon Kk Speech processing system
US6973427B2 (en) * 2000-12-26 2005-12-06 Microsoft Corporation Method for adding phonetic descriptions to a speech recognition lexicon
US20020087313A1 (en) * 2000-12-29 2002-07-04 Lee Victor Wai Leung Computer-implemented intelligent speech model partitioning method and system
WO2002073595A1 (fr) * 2001-03-08 2002-09-19 Matsushita Electric Industrial Co., Ltd. Dispositif generateur de prosodie, procede de generation de prosodie, et programme
JP2002358095A (ja) * 2001-03-30 2002-12-13 Sony Corp 音声処理装置および音声処理方法、並びにプログラムおよび記録媒体
EP1435087B1 (de) * 2001-10-11 2005-08-31 Siemens Aktiengesellschaft Verfahren zur erzeugung von sprachbausteine beschreibenden referenzsegmenten und verfahren zur modellierung von spracheinheiten eines gesprochenen testmusters
US20030120493A1 (en) * 2001-12-21 2003-06-26 Gupta Sunil K. Method and system for updating and customizing recognition vocabulary
US7580831B2 (en) * 2002-03-05 2009-08-25 Siemens Medical Solutions Health Services Corporation Dynamic dictionary and term repository system
JP3762327B2 (ja) * 2002-04-24 2006-04-05 株式会社東芝 音声認識方法および音声認識装置および音声認識プログラム
US7072828B2 (en) * 2002-05-13 2006-07-04 Avaya Technology Corp. Apparatus and method for improved voice activity detection
US7024353B2 (en) * 2002-08-09 2006-04-04 Motorola, Inc. Distributed speech recognition with back-end voice activity detection apparatus and method
US7047193B1 (en) * 2002-09-13 2006-05-16 Apple Computer, Inc. Unsupervised data-driven pronunciation modeling
JP2004117662A (ja) 2002-09-25 2004-04-15 Matsushita Electric Ind Co Ltd 音声合成システム
US20070112554A1 (en) * 2003-05-14 2007-05-17 Goradia Gautam D System of interactive dictionary
US7280963B1 (en) * 2003-09-12 2007-10-09 Nuance Communications, Inc. Method for learning linguistically valid word pronunciations from acoustic data
US8019602B2 (en) * 2004-01-20 2011-09-13 Microsoft Corporation Automatic speech recognition learning using user corrections
US7392187B2 (en) * 2004-09-20 2008-06-24 Educational Testing Service Method and system for the automatic generation of speech features for scoring high entropy speech
ES2309728T3 (es) * 2005-02-17 2008-12-16 Loquendo S.P.A. Metodo y sistema automatico para proporcionar formulaciones linguisticos que estan fuera de un dominio de reconocimiento de un sistema de reconocimiento vocal automatico.
US9245526B2 (en) * 2006-04-25 2016-01-26 General Motors Llc Dynamic clustering of nametags in an automated speech recognition system
US20080120093A1 (en) * 2006-11-16 2008-05-22 Seiko Epson Corporation System for creating dictionary for speech synthesis, semiconductor integrated circuit device, and method for manufacturing semiconductor integrated circuit device
JP4867654B2 (ja) * 2006-12-28 2012-02-01 日産自動車株式会社 音声認識装置、および音声認識方法
US8918318B2 (en) * 2007-01-16 2014-12-23 Nec Corporation Extended recognition dictionary learning device and speech recognition system
WO2008096310A1 (en) * 2007-02-06 2008-08-14 Nuance Communications Austria Gmbh Method and system for creating or updating entries in a speech recognition lexicon
US8620658B2 (en) * 2007-04-16 2013-12-31 Sony Corporation Voice chat system, information processing apparatus, speech recognition method, keyword data electrode detection method, and program for speech recognition
US7472061B1 (en) * 2008-03-31 2008-12-30 International Business Machines Corporation Systems and methods for building a native language phoneme lexicon having native pronunciations of non-native words derived from non-native pronunciations

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63165900A (ja) * 1986-12-27 1988-07-09 沖電気工業株式会社 会話音声認識方式
JP2003241788A (ja) * 2002-02-20 2003-08-29 Ntt Docomo Inc 音声認識装置及び音声認識システム
JP2007213005A (ja) * 2006-01-10 2007-08-23 Nissan Motor Co Ltd 認識辞書システムおよびその更新方法
JP2007293600A (ja) * 2006-04-25 2007-11-08 Ziosoft Inc 医療用サーバ装置、入力装置、校正装置、閲覧装置、音声入力レポートシステムおよびプログラム

Also Published As

Publication number Publication date
US8423354B2 (en) 2013-04-16
JPWO2009136440A1 (ja) 2011-09-01
US20110119052A1 (en) 2011-05-19
GB201018822D0 (en) 2010-12-22
GB2471811A (en) 2011-01-12
WO2009136440A1 (ja) 2009-11-12
GB2471811B (en) 2012-05-16

Similar Documents

Publication Publication Date Title
US10720164B2 (en) System and method of diarization and labeling of audio data
EP1960997B1 (en) Speech recognition system with huge vocabulary
US20050033575A1 (en) Operating method for an automated language recognizer intended for the speaker-independent language recognition of words in different languages and automated language recognizer
JP5098613B2 (ja) 音声認識装置及びコンピュータプログラム
JP6440967B2 (ja) 文末記号推定装置、この方法及びプログラム
JP5454469B2 (ja) 音声認識辞書作成支援装置,処理プログラム,および処理方法
JP5326169B2 (ja) 音声データ検索システム及び音声データ検索方法
Imperl et al. Clustering of triphones using phoneme similarity estimation for the definition of a multilingual set of triphones
JPH10173769A (ja) 音声メッセージ検索装置
JP2011113426A (ja) 辞書作成装置,辞書作成プログラムおよび辞書作成方法
Sárosi et al. Automated transcription of conversational Call Center speech–with respect to non-verbal acoustic events
Gereg et al. Semi-automatic processing and annotation of meeting audio recordings
JPH0981185A (ja) 連続音声認識装置
QUANG et al. AUTOMATIC QUESTION EXTRACTION FROM MEETING AND DIALOG RECORDING

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131223

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees