JP2022503255A - 音声情報処理方法、装置、プログラム及び記録媒体 - Google Patents
音声情報処理方法、装置、プログラム及び記録媒体 Download PDFInfo
- Publication number
- JP2022503255A JP2022503255A JP2019562645A JP2019562645A JP2022503255A JP 2022503255 A JP2022503255 A JP 2022503255A JP 2019562645 A JP2019562645 A JP 2019562645A JP 2019562645 A JP2019562645 A JP 2019562645A JP 2022503255 A JP2022503255 A JP 2022503255A
- Authority
- JP
- Japan
- Prior art keywords
- word
- target word
- phoneme
- fuzzy
- words
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 72
- 238000003672 processing method Methods 0.000 title claims abstract description 50
- 238000005516 engineering process Methods 0.000 claims abstract description 40
- 238000004590 computer program Methods 0.000 claims description 8
- 238000000034 method Methods 0.000 abstract description 47
- 238000010586 diagram Methods 0.000 abstract description 19
- 238000012545 processing Methods 0.000 description 44
- 238000004891 communication Methods 0.000 description 22
- 230000003287 optical effect Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 230000005236 sound signal Effects 0.000 description 8
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000003044 adaptive effect Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000003993 interaction Effects 0.000 description 4
- 238000003909 pattern recognition Methods 0.000 description 4
- 238000007781 pre-processing Methods 0.000 description 4
- 238000011160 research Methods 0.000 description 4
- KLDZYURQCUYZBL-UHFFFAOYSA-N 2-[3-[(2-hydroxyphenyl)methylideneamino]propyliminomethyl]phenol Chemical compound OC1=CC=CC=C1C=NCCCN=CC1=CC=CC=C1O KLDZYURQCUYZBL-UHFFFAOYSA-N 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 2
- 230000001174 ascending effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 201000001098 delayed sleep phase syndrome Diseases 0.000 description 2
- 208000033921 delayed sleep phase type circadian rhythm sleep disease Diseases 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000009432 framing Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/187—Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06K—GRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
- G06K7/00—Methods or arrangements for sensing record carriers, e.g. for reading patterns
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
- G10L2015/025—Phonemes, fenemes or fenones being the recognition units
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L2015/088—Word spotting
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Machine Translation (AREA)
Abstract
【選択図】図2
Description
音声認識技術に基づいて、収集された音声情報に対応するテキスト情報を決定するステップであって、テキスト情報が単語を含むステップと、
テキスト情報に含まれる単語を対象単語とし、対象単語に対応する音素シーケンス及び既定の発音辞書を用いて、対象単語に対応するファジー単語を決定するステップであって、発音辞書が複数の単語と各単語に対応する音素シーケンスを含むステップと、
対象単語及び対象単語に対応するファジー単語を出力するステップと、を含む。
発音辞書の単語から、対応する音素シーケンスが対象単語に対応する音素シーケンスと同一である単語を、対象単語に対応するファジー単語として選択するステップを含む。
対象単語に対応する音素シーケンスが第1の既定のタイプの音素を含む場合、対象単語に対応する音素シーケンスを基準シーケンスとし、発音辞書の単語から、対応する音素シーケンスが以下の条件を満たす単語を、対象単語に対応するファジー単語として選択するステップを含み、
条件は、
対応する音素シーケンスは、第1の既定のタイプの音素を含み、且つ、この音素シーケンスにおける第1の既定のタイプの音素の位置は、基準シーケンスにおける第1の既定のタイプの音素の位置と同じであり、
この音素シーケンスに含まれる第1の既定のタイプの音素以外の音素からなる第1音素シーケンスは、基準シーケンスにおける第1の既定のタイプの音素以外の音素からなる第2音素シーケンスと同一である。
対象単語に対応する音素シーケンスの最初及び最後の少なくとも一方の音素が第2の既定のタイプの音素である場合、この音素シーケンスに含まれる第2の既定のタイプの音素以外の音素を新たな音素シーケンスとして統合し、発音辞書の単語から、対応する音素シーケンスがこの新たな音素シーケンスと同一である単語を、対象単語に対応するファジー単語として選択するステップを含む。
既定の優先度に応じて対象単語に対応するファジー単語を順位付けするステップと、
対象単語に対応するファジー単語の数が既定の数より大きい場合、順位付け結果に応じて対象単語に対応する全てのファジー単語から既定の数のファジー単語を選別し、対象単語及び選別されたファジー単語を出力するステップと、
対象単語に対応するファジー単語の数が既定の数以下である場合、順位付け結果に応じて対象単語及び対象単語に対応する全てのファジー単語を出力するステップと、を含む。
音声認識技術に基づいて、収集された音声情報に対応するテキスト情報を決定し、テキスト情報が単語を含むように構成される第1決定モジュールと、
テキスト情報に含まれる単語を対象単語とし、対象単語に対応する音素シーケンス及び既定の発音辞書を用いて、対象単語に対応するファジー単語を決定し、発音辞書が複数の単語と各単語に対応する音素シーケンスを含むように構成される第2決定モジュールと、
対象単語及び対象単語に対応するファジー単語を出力するように構成される出力モジュールと、を含む。
対象単語に対応する音素シーケンスが第1の既定のタイプの音素を含む場合、対象単語に対応する音素シーケンスを基準シーケンスとし、発音辞書の単語から、対応する音素シーケンスが以下の条件を満たす単語を対象単語に対応するファジー単語として選択するように構成される第2選択サブモジュールを含み、
条件は、
対応する音素シーケンスは、第1の既定のタイプの音素を含み、且つ、この音素シーケンスにおける第1の既定のタイプの音素の位置は、基準シーケンスにおける第1の既定のタイプの音素の位置と同じであり、
この音素シーケンスに含まれる第1の既定のタイプの音素以外の音素からなる第1音素シーケンスは、基準シーケンスにおける第1の既定のタイプの音素以外の音素からなる第2音素シーケンスと同一である。
対象単語に対応する音素シーケンスの最初及び最後の少なくとも一方の音素が第2の既定のタイプの音素である場合、この音素シーケンスに含まれる第2の既定のタイプの音素以外の音素を新たな音素シーケンスとして統合し、発音辞書の単語から、対応する音素シーケンスがこの新たな音素シーケンスと同一である単語を、対象単語に対応するファジー単語として選択するように構成される第3選択サブモジュールを含む。
既定の優先度に応じて対象単語に対応するファジー単語を順位付けするように構成される順位付けサブモジュールと、
対象単語に対応するファジー単語の数が既定の数より大きい場合、順位付け結果に応じて対象単語に対応する全てのファジー単語から既定の数のファジー単語を選別し、対象単語及び選別されたファジー単語を出力するように構成される第1出力サブモジュールと、
対象単語に対応するファジー単語の数が既定の数以下である場合、順位付け結果に応じて対象単語及び対象単語に対応する全てのファジー単語を出力するように構成される第2出力サブモジュールと、を含む。
プロセッサと
プロセッサで実行可能な命令を記憶するためのメモリと、
を備え、
プロセッサは、
音声認識技術に基づいて、収集された音声情報に対応するテキスト情報を決定し、テキスト情報が単語を含み、
テキスト情報に含まれる単語を対象単語とし、対象単語に対応する音素シーケンス及び既定の発音辞書を用いて、対象単語に対応するファジー単語を決定し、発音辞書が複数の単語と各単語に対応する音素シーケンスとを含み、
対象単語及び対象単語に対応するファジー単語を出力するように構成される。
図1に示す実施環境において、本開示の実施例は、音声情報処理方法を提供する。この方法は、図1に示すユーザ端末10又はサーバ20によって実行される。図2を参照すると、図2は、例示的な一実施例に係る音声情報処理方法のフローチャートを示しており、この方法は、以下のステップを含む。
同音異義語に対応する音素シーケンスが同一であるため、具体的に実施する場合、発音辞書の単語から、対応する音素シーケンスが対象単語に対応する音素シーケンスと同一である単語を、対象単語に対応するファジー単語として選択する。例えば、対象単語がtwoである場合、その音声記号は/tu:/であり、対応する音素シーケンスは/t/、/u:/であり、対応する発音辞書から音素シーケンスが同一の単語tooを、対象単語twoのファジー単語として選択する。同様に、対象単語がbeである場合、対応する発音辞書から音素シーケンスが対象単語beの音素シーケンス(/b/、/i:/)と同一である単語beeを、この対象単語beのファジー単語として選択する。
具体的に、対象単語に対応する音素シーケンスが第1の既定のタイプの音素を含む場合、対象単語に対応する音素シーケンスを基準シーケンスとし、発音辞書の単語から、対応する音素シーケンスが以下の条件を満たす単語を、対象単語に対応するファジー単語として選択する。この条件は、(1)対応する音素シーケンスは、第1の既定のタイプの音素を含み、且つ、この音素シーケンスにおける、この第1の既定のタイプの音素の位置は、基準シーケンスにおける第1の既定のタイプの音素の位置と同じであり、(2)この音素シーケンスに含まれる第1の既定のタイプの音素以外の音素からなる第1音素シーケンスは、基準シーケンスにおける第1の既定のタイプの音素以外の音素からなる第2音素シーケンスと同一である。ここで、第1の既定のタイプの音素は、実際の需要に応じてユーザ又はメーカによって設定されてもよい。例えば/ash(aとeの中間音に相当する発音記号)/、/e/、/a:/などの区別しにくい音素を含むことができるが、これらに限定されない。
このような場合、音声情報を認識する際に、この単語の無声子音の音素が無視され、認識結果が不正確になるおそれがある。例えば、単語biteが単語buyとして誤って認識され易い。そのため、対象単語に対応する音素シーケンスの最初及び最後の少なくとも一方の音素が第2の既定のタイプの音素である場合、この音素シーケンスに含まれるこの第2の既定のタイプの音素以外の音素を新たな音素シーケンスとして統合し、発音辞書の単語から、対応する音素シーケンスが、この新たな音素シーケンスと同一である単語を、対象単語に対応するファジー単語として選択する。ここで、第2の既定のタイプの音素は、実際の需要に応じてユーザ又はメーカによって設定されてもよく、第2の既定のタイプの音素は、例えば/p/、/t/、/k/、/s/、/f/などの無声子音の音素を含むことができるが、これらに限定されない。
音声認識技術に基づいて、収集された音声情報に対応するテキスト情報を決定し、テキスト情報が単語を含むように構成される第1決定モジュール301と、
テキスト情報に含まれる単語を対象単語とし、対象単語に対応する音素シーケンス及び既定の発音辞書を用いて、対象単語に対応するファジー単語を決定し、発音辞書が複数の単語と各単語に対応する音素シーケンスを含むように構成される第2決定モジュール302と、
対象単語及び対象単語に対応するファジー単語を出力するように構成される出力モジュール303と、を含む。
発音辞書の単語から、対応する音素シーケンスが対象単語に対応する音素シーケンスと同一である単語を対象単語に対応するファジー単語として選択するように構成される第1選択サブモジュール321を含む。
対象単語に対応する音素シーケンスが第1の既定のタイプの音素を含む場合、対象単語に対応する音素シーケンスを基準シーケンスとし、発音辞書の単語から、対応する音素シーケンスが以下の条件を満たす単語を対象単語に対応するファジー単語として選択するように構成される第2選択サブモジュール322を含む。
対象単語に対応する音素シーケンスの最初及び最後の少なくとも一方の音素が第2の既定のタイプの音素である場合、この音素シーケンスに含まれる第2の既定のタイプの音素以外の音素を新たな音素シーケンスとして統合し、発音辞書の単語から、対応する音素シーケンスがこの新たな音素シーケンスと同一である単語を対象単語に対応するファジー単語として選択するように構成される第3選択サブモジュール323を含む。
既定の優先度に応じて対象単語に対応するファジー単語を順位付けするように構成される順位付けサブモジュール331と、
対象単語に対応するファジー単語の数が既定の数より大きい場合、順位付け結果に応じて対象単語に対応する全てのファジー単語から既定の数のファジー単語を選別し、対象単語及び選別されたファジー単語を出力するように構成される第1出力サブモジュール332と、
対象単語に対応するファジー単語の数が既定の数以下である場合、順位付け結果に応じて対象単語及び対象単語に対応する全てのファジー単語を出力するように構成される第2出力サブモジュール333と、を含む。
音声認識技術に基づいて、収集された音声情報に対応するテキスト情報を決定するステップであって、テキスト情報が単語を含むステップと、
テキスト情報に含まれる単語を対象単語とし、対象単語に対応する音素シーケンス及び既定の発音辞書を用いて、対象単語に対応するファジー単語を決定するステップであって、発音辞書が複数の単語と各単語に対応する音素シーケンスを含むステップと、
対象単語及び対象単語に対応するファジー単語を出力するステップと、を含む。
発音辞書の単語から、対応する音素シーケンスが対象単語に対応する音素シーケンスと同一である単語を、対象単語に対応するファジー単語として選択するステップを含む。
対象単語に対応する音素シーケンスが第1の既定のタイプの音素を含む場合、対象単語に対応する音素シーケンスを基準シーケンスとし、発音辞書の単語から、対応する音素シーケンスが以下の条件を満たす単語を、対象単語に対応するファジー単語として選択するステップを含み、
条件は、
対応する音素シーケンスは、第1の既定のタイプの音素を含み、且つ、この音素シーケンスにおける第1の既定のタイプの音素の位置は、基準シーケンスにおける第1の既定のタイプの音素の位置と同じであり、
この音素シーケンスに含まれる第1の既定のタイプの音素以外の音素からなる第1音素シーケンスは、基準シーケンスにおける第1の既定のタイプの音素以外の音素からなる第2音素シーケンスと同一である。
対象単語に対応する音素シーケンスの最初及び最後の少なくとも一方の音素が第2の既定のタイプの音素である場合、この音素シーケンスに含まれる第2の既定のタイプの音素以外の音素を新たな音素シーケンスとして統合し、発音辞書の単語から、対応する音素シーケンスがこの新たな音素シーケンスと同一である単語を、対象単語に対応するファジー単語として選択するステップを含む。
既定の優先度に応じて対象単語に対応するファジー単語を順位付けするステップと、
対象単語に対応するファジー単語の数が既定の数より大きい場合、順位付け結果に応じて対象単語に対応する全てのファジー単語から既定の数のファジー単語を選別し、対象単語及び選別されたファジー単語を出力するステップと、
対象単語に対応するファジー単語の数が既定の数以下である場合、順位付け結果に応じて対象単語及び対象単語に対応する全てのファジー単語を出力するステップと、を含む。
音声認識技術に基づいて、収集された音声情報に対応するテキスト情報を決定し、テキスト情報が単語を含むように構成される第1決定モジュールと、
テキスト情報に含まれる単語を対象単語とし、対象単語に対応する音素シーケンス及び既定の発音辞書を用いて、対象単語に対応するファジー単語を決定し、発音辞書が複数の単語と各単語に対応する音素シーケンスを含むように構成される第2決定モジュールと、
対象単語及び対象単語に対応するファジー単語を出力するように構成される出力モジュールと、を含む。
対象単語に対応する音素シーケンスが第1の既定のタイプの音素を含む場合、対象単語に対応する音素シーケンスを基準シーケンスとし、発音辞書の単語から、対応する音素シーケンスが以下の条件を満たす単語を対象単語に対応するファジー単語として選択するように構成される第2選択サブモジュールを含み、
条件は、
対応する音素シーケンスは、第1の既定のタイプの音素を含み、且つ、この音素シーケンスにおける第1の既定のタイプの音素の位置は、基準シーケンスにおける第1の既定のタイプの音素の位置と同じであり、
この音素シーケンスに含まれる第1の既定のタイプの音素以外の音素からなる第1音素シーケンスは、基準シーケンスにおける第1の既定のタイプの音素以外の音素からなる第2音素シーケンスと同一である。
対象単語に対応する音素シーケンスの最初及び最後の少なくとも一方の音素が第2の既定のタイプの音素である場合、この音素シーケンスに含まれる第2の既定のタイプの音素以外の音素を新たな音素シーケンスとして統合し、発音辞書の単語から、対応する音素シーケンスがこの新たな音素シーケンスと同一である単語を、対象単語に対応するファジー単語として選択するように構成される第3選択サブモジュールを含む。
既定の優先度に応じて対象単語に対応するファジー単語を順位付けするように構成される順位付けサブモジュールと、
対象単語に対応するファジー単語の数が既定の数より大きい場合、順位付け結果に応じて対象単語に対応する全てのファジー単語から既定の数のファジー単語を選別し、対象単語及び選別されたファジー単語を出力するように構成される第1出力サブモジュールと、
対象単語に対応するファジー単語の数が既定の数以下である場合、順位付け結果に応じて対象単語及び対象単語に対応する全てのファジー単語を出力するように構成される第2出力サブモジュールと、を含む。
プロセッサと
プロセッサで実行可能な命令を記憶するためのメモリと、
を備え、
プロセッサは、
音声認識技術に基づいて、収集された音声情報に対応するテキスト情報を決定し、テキスト情報が単語を含み、
テキスト情報に含まれる単語を対象単語とし、対象単語に対応する音素シーケンス及び既定の発音辞書を用いて、対象単語に対応するファジー単語を決定し、発音辞書が複数の単語と各単語に対応する音素シーケンスとを含み、
対象単語及び対象単語に対応するファジー単語を出力するように構成される。
図1に示す実施環境において、本開示の実施例は、音声情報処理方法を提供する。この方法は、図1に示すユーザ端末10又はサーバ20によって実行される。図2を参照すると、図2は、例示的な一実施例に係る音声情報処理方法のフローチャートを示しており、この方法は、以下のステップを含む。
同音異義語に対応する音素シーケンスが同一であるため、具体的に実施する場合、発音辞書の単語から、対応する音素シーケンスが対象単語に対応する音素シーケンスと同一である単語を、対象単語に対応するファジー単語として選択する。例えば、対象単語がtwoである場合、その音声記号は/tu:/であり、対応する音素シーケンスは/t/、/u:/であり、対応する発音辞書から音素シーケンスが同一の単語tooを、対象単語twoのファジー単語として選択する。同様に、対象単語がbeである場合、対応する発音辞書から音素シーケンスが対象単語beの音素シーケンス(/b/、/i:/)と同一である単語beeを、この対象単語beのファジー単語として選択する。
具体的に、対象単語に対応する音素シーケンスが第1の既定のタイプの音素を含む場合、対象単語に対応する音素シーケンスを基準シーケンスとし、発音辞書の単語から、対応する音素シーケンスが以下の条件を満たす単語を、対象単語に対応するファジー単語として選択する。この条件は、(1)対応する音素シーケンスは、第1の既定のタイプの音素を含み、且つ、この音素シーケンスにおける、この第1の既定のタイプの音素の位置は、基準シーケンスにおける第1の既定のタイプの音素の位置と同じであり、(2)この音素シーケンスに含まれる第1の既定のタイプの音素以外の音素からなる第1音素シーケンスは、基準シーケンスにおける第1の既定のタイプの音素以外の音素からなる第2音素シーケンスと同一である。ここで、第1の既定のタイプの音素は、実際の需要に応じてユーザ又はメーカによって設定されてもよい。例えば/ash(aとeの中間音に相当する発音記号)/、/e/、/a:/などの区別しにくい音素を含むことができるが、これらに限定されない。
このような場合、音声情報を認識する際に、この単語の無声子音の音素が無視され、認識結果が不正確になるおそれがある。例えば、単語biteが単語buyとして誤って認識され易い。そのため、対象単語に対応する音素シーケンスの最初及び最後の少なくとも一方の音素が第2の既定のタイプの音素である場合、この音素シーケンスに含まれるこの第2の既定のタイプの音素以外の音素を新たな音素シーケンスとして統合し、発音辞書の単語から、対応する音素シーケンスが、この新たな音素シーケンスと同一である単語を、対象単語に対応するファジー単語として選択する。ここで、第2の既定のタイプの音素は、実際の需要に応じてユーザ又はメーカによって設定されてもよく、第2の既定のタイプの音素は、例えば/p/、/t/、/k/、/s/、/f/などの無声子音の音素を含むことができるが、これらに限定されない。
音声認識技術に基づいて、収集された音声情報に対応するテキスト情報を決定し、テキスト情報が単語を含むように構成される第1決定モジュール301と、
テキスト情報に含まれる単語を対象単語とし、対象単語に対応する音素シーケンス及び既定の発音辞書を用いて、対象単語に対応するファジー単語を決定し、発音辞書が複数の単語と各単語に対応する音素シーケンスを含むように構成される第2決定モジュール302と、
対象単語及び対象単語に対応するファジー単語を出力するように構成される出力モジュール303と、を含む。
発音辞書の単語から、対応する音素シーケンスが対象単語に対応する音素シーケンスと同一である単語を対象単語に対応するファジー単語として選択するように構成される第1選択サブモジュール321を含む。
対象単語に対応する音素シーケンスが第1の既定のタイプの音素を含む場合、対象単語に対応する音素シーケンスを基準シーケンスとし、発音辞書の単語から、対応する音素シーケンスが以下の条件を満たす単語を対象単語に対応するファジー単語として選択するように構成される第2選択サブモジュール322を含む。
対象単語に対応する音素シーケンスの最初及び最後の少なくとも一方の音素が第2の既定のタイプの音素である場合、この音素シーケンスに含まれる第2の既定のタイプの音素以外の音素を新たな音素シーケンスとして統合し、発音辞書の単語から、対応する音素シーケンスがこの新たな音素シーケンスと同一である単語を対象単語に対応するファジー単語として選択するように構成される第3選択サブモジュール323を含む。
既定の優先度に応じて対象単語に対応するファジー単語を順位付けするように構成される順位付けサブモジュール331と、
対象単語に対応するファジー単語の数が既定の数より大きい場合、順位付け結果に応じて対象単語に対応する全てのファジー単語から既定の数のファジー単語を選別し、対象単語及び選別されたファジー単語を出力するように構成される第1出力サブモジュール332と、
対象単語に対応するファジー単語の数が既定の数以下である場合、順位付け結果に応じて対象単語及び対象単語に対応する全てのファジー単語を出力するように構成される第2出力サブモジュール333と、を含む。
Claims (12)
- 音声認識技術に基づいて、収集された音声情報に対応するテキスト情報を決定するステップであって、前記テキスト情報が単語を含む、ステップと、
前記テキスト情報に含まれる単語を対象単語とし、前記対象単語に対応する音素シーケンス及び既定の発音辞書を用いて、前記対象単語に対応するファジー単語を決定するステップであって、前記発音辞書が複数の単語と各単語に対応する音素シーケンスを含む、ステップと、
前記対象単語及び前記対象単語に対応するファジー単語を出力するステップと、
を含むことを特徴とする音声情報処理方法。 - 前記対象単語に対応する音素シーケンス及び既定の発音辞書を用いて、前記対象単語に対応するファジー単語を決定するステップは、
前記発音辞書の単語から、対応する音素シーケンスが前記対象単語に対応する音素シーケンスと同一である単語を、前記対象単語に対応するファジー単語として選択するステップを含む
ことを特徴とする請求項1に記載の音声情報処理方法。 - 前記対象単語に対応する音素シーケンス及び既定の発音辞書を用いて、前記対象単語に対応するファジー単語を決定するステップは、
前記対象単語に対応する音素シーケンスが第1の既定のタイプの音素を含む場合、前記対象単語に対応する音素シーケンスを基準シーケンスとし、前記発音辞書の単語から、対応する音素シーケンスが以下の条件を満たす単語を、前記対象単語に対応するファジー単語として選択するステップを含み、
前記条件は、
対応する音素シーケンスは、前記第1の既定のタイプの音素を含み、且つ、この音素シーケンスにおける前記第1の既定のタイプの音素の位置は、前記基準シーケンスにおける前記第1の既定のタイプの音素の位置と同じであり、
この音素シーケンスに含まれる前記第1の既定のタイプの音素以外の音素からなる第1音素シーケンスは、前記基準シーケンスにおける前記第1の既定のタイプの音素以外の音素からなる第2音素シーケンスと同一である
ことを特徴とする請求項1に記載の音声情報処理方法。 - 前記対象単語に対応する音素シーケンス及び既定の発音辞書を用いて、前記対象単語に対応するファジー単語を決定するステップは、
前記対象単語に対応する音素シーケンスの最初及び最後の少なくとも一方の音素が第2の既定のタイプの音素である場合、この音素シーケンスに含まれる前記第2の既定のタイプの音素以外の音素を新たな音素シーケンスとして統合し、前記発音辞書の単語から、対応する音素シーケンスがこの新たな音素シーケンスと同一である単語を、前記対象単語に対応するファジー単語として選択するステップを含む
ことを特徴とする請求項1に記載の音声情報処理方法。 - 前記対象単語及び前記対象単語に対応するファジー単語を出力するステップは、
既定の優先度に応じて前記対象単語に対応するファジー単語を順位付けするステップと、
前記対象単語に対応するファジー単語の数が既定の数より大きい場合、順位付け結果に応じて前記対象単語に対応する全てのファジー単語から前記既定の数のファジー単語を選別し、前記対象単語及び選別されたファジー単語を出力するステップと、
前記対象単語に対応するファジー単語の数が前記既定の数以下である場合、前記順位付け結果に応じて前記対象単語及び前記対象単語に対応する全てのファジー単語を出力するステップと、
を含むことを特徴とする請求項1から請求項4のいずれか1項に記載の音声情報処理方法。 - 音声認識技術に基づいて、収集された音声情報に対応するテキスト情報を決定し、前記テキスト情報が単語を含むように構成される第1決定モジュールと、
前記テキスト情報に含まれる単語を対象単語とし、前記対象単語に対応する音素シーケンス及び既定の発音辞書を用いて、前記対象単語に対応するファジー単語を決定し、前記発音辞書が複数の単語と各単語に対応する音素シーケンスを含むように構成される第2決定モジュールと、
前記対象単語及び前記対象単語に対応するファジー単語を出力するように構成される出力モジュールと、
を含むことを特徴とする音声情報処理装置。 - 前記第2決定モジュールは、
前記発音辞書の単語から、対応する音素シーケンスが前記対象単語に対応する音素シーケンスと同一である単語を、前記対象単語に対応するファジー単語として選択するように構成される第1選択サブモジュールを含む
ことを特徴とする請求項6に記載の音声情報処理装置。 - 前記第2決定モジュールは、
前記対象単語に対応する音素シーケンスが第1の既定のタイプの音素を含む場合、前記対象単語に対応する音素シーケンスを基準シーケンスとし、前記発音辞書の単語から、対応する音素シーケンスが以下の条件を満たす単語を、前記対象単語に対応するファジー単語として選択するように構成される第2選択サブモジュールを含み、
前記条件は、
対応する音素シーケンスは、前記第1の既定のタイプの音素を含み、且つ、この音素シーケンスにおける前記第1の既定のタイプの音素の位置は、前記基準シーケンスにおける前記第1の既定のタイプの音素の位置と同じであり、
この音素シーケンスに含まれる前記第1の既定のタイプの音素以外の音素からなる第1音素シーケンスは、前記基準シーケンスにおける前記第1の既定のタイプの音素以外の音素からなる第2音素シーケンスと同一である
ことを特徴とする請求項6に記載の音声情報処理装置。 - 前記第2決定モジュールは、
前記対象単語に対応する音素シーケンスの最初及び最後の少なくとも一方の音素が第2の既定のタイプの音素である場合、この音素シーケンスに含まれる前記第2の既定のタイプの音素以外の音素を新たな音素シーケンスとして統合し、前記発音辞書の単語から、対応する音素シーケンスがこの新たな音素シーケンスと同一である単語を、前記対象単語に対応するファジー単語として選択するように構成される第3選択サブモジュールを含む
ことを特徴とする請求項6に記載の音声情報処理装置。 - 前記出力モジュールは、
既定の優先度に応じて前記対象単語に対応するファジー単語を順位付けするように構成される順位付けサブモジュールと、
前記対象単語に対応するファジー単語の数が既定の数より大きい場合、順位付け結果に応じて前記対象単語に対応する全てのファジー単語から前記既定の数のファジー単語を選別し、前記対象単語及び選別されたファジー単語を出力するように構成される第1出力サブモジュールと、
前記対象単語に対応するファジー単語の数が前記既定の数以下である場合、前記順位付け結果に応じて前記対象単語及び前記対象単語に対応する全てのファジー単語を出力するように構成される第2出力サブモジュールと、
を含むことを特徴とする請求項6から請求項9のいずれか1項に記載の音声情報処理装置。 - プロセッサと、
前記プロセッサで実行可能な命令を記憶するためのメモリと、
を備え、
前記プロセッサは、
音声認識技術に基づいて、収集された音声情報に対応するテキスト情報を決定し、前記テキスト情報が単語を含み、
前記テキスト情報に含まれる単語を対象単語とし、前記対象単語に対応する音素シーケンス及び既定の発音辞書を用いて、前記対象単語に対応するファジー単語を決定し、前記発音辞書が複数の単語と各単語に対応する音素シーケンスとを含み、
前記対象単語及び前記対象単語に対応するファジー単語を出力するように構成される
ことを特徴とする音声情報処理装置。 - コンピュータプログラム命令が記憶されたコンピュータ読み取り可能な記録媒体であって、前記コンピュータプログラム命令がプロセッサにより実行される場合、請求項1から請求項5のいずれか1項に記載の音声情報処理方法に含まれるステップが実行されることを特徴とするコンピュータ読み取り可能な記録媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910848567.7A CN112562675B (zh) | 2019-09-09 | 2019-09-09 | 语音信息处理方法、装置及存储介质 |
CN201910848567.7 | 2019-09-09 | ||
PCT/CN2019/111308 WO2021046958A1 (zh) | 2019-09-09 | 2019-10-15 | 语音信息处理方法、装置及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022503255A true JP2022503255A (ja) | 2022-01-12 |
JP7116088B2 JP7116088B2 (ja) | 2022-08-09 |
Family
ID=69157636
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019562645A Active JP7116088B2 (ja) | 2019-09-09 | 2019-10-15 | 音声情報処理方法、装置、プログラム及び記録媒体 |
Country Status (7)
Country | Link |
---|---|
US (1) | US11270693B2 (ja) |
EP (1) | EP3790001B1 (ja) |
JP (1) | JP7116088B2 (ja) |
KR (1) | KR102334299B1 (ja) |
CN (1) | CN112562675B (ja) |
RU (1) | RU2733816C1 (ja) |
WO (1) | WO2021046958A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112489657A (zh) * | 2020-12-04 | 2021-03-12 | 宁夏新航信息科技有限公司 | 一种数据分析***与数据分析方法 |
CN113053362A (zh) * | 2021-03-30 | 2021-06-29 | 建信金融科技有限责任公司 | 语音识别的方法、装置、设备和计算机可读介质 |
CN113409767B (zh) * | 2021-05-14 | 2023-04-25 | 北京达佳互联信息技术有限公司 | 一种语音处理方法、装置、电子设备及存储介质 |
CN113689882A (zh) * | 2021-08-24 | 2021-11-23 | 上海喜马拉雅科技有限公司 | 发音评测方法、装置、电子设备及可读存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006146008A (ja) * | 2004-11-22 | 2006-06-08 | National Institute Of Advanced Industrial & Technology | 音声認識装置及び方法ならびにプログラム |
JP2013125144A (ja) * | 2011-12-14 | 2013-06-24 | Nippon Hoso Kyokai <Nhk> | 音声認識装置およびそのプログラム |
CN109841209A (zh) * | 2017-11-27 | 2019-06-04 | 株式会社速录抓吧 | 语音识别设备和*** |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6363342B2 (en) | 1998-12-18 | 2002-03-26 | Matsushita Electric Industrial Co., Ltd. | System for developing word-pronunciation pairs |
KR100318762B1 (ko) * | 1999-10-01 | 2002-01-04 | 윤덕용 | 외래어 음차표기의 음성적 거리 계산방법 |
JP2002215184A (ja) * | 2001-01-19 | 2002-07-31 | Casio Comput Co Ltd | 音声認識装置、及びプログラム |
US7062436B1 (en) * | 2003-02-11 | 2006-06-13 | Microsoft Corporation | Word-specific acoustic models in a speech recognition system |
US7590533B2 (en) * | 2004-03-10 | 2009-09-15 | Microsoft Corporation | New-word pronunciation learning using a pronunciation graph |
CN201054644Y (zh) * | 2006-07-25 | 2008-04-30 | 陈修志 | 具有语音识别及翻译功能的移动终端 |
US8201087B2 (en) * | 2007-02-01 | 2012-06-12 | Tegic Communications, Inc. | Spell-check for a keyboard system with automatic correction |
US7983915B2 (en) * | 2007-04-30 | 2011-07-19 | Sonic Foundry, Inc. | Audio content search engine |
KR101300839B1 (ko) * | 2007-12-18 | 2013-09-10 | 삼성전자주식회사 | 음성 검색어 확장 방법 및 시스템 |
US8560318B2 (en) * | 2010-05-14 | 2013-10-15 | Sony Computer Entertainment Inc. | Methods and system for evaluating potential confusion within grammar structure for set of statements to be used in speech recognition during computing event |
US9135912B1 (en) | 2012-08-15 | 2015-09-15 | Google Inc. | Updating phonetic dictionaries |
US9293129B2 (en) * | 2013-03-05 | 2016-03-22 | Microsoft Technology Licensing, Llc | Speech recognition assisted evaluation on text-to-speech pronunciation issue detection |
US9196246B2 (en) * | 2013-06-14 | 2015-11-24 | Mitsubishi Electric Research Laboratories, Inc. | Determining word sequence constraints for low cognitive speech recognition |
CN103677729B (zh) * | 2013-12-18 | 2017-02-08 | 北京搜狗科技发展有限公司 | 一种语音输入方法和*** |
KR102380833B1 (ko) * | 2014-12-02 | 2022-03-31 | 삼성전자주식회사 | 음성 인식 방법 및 음성 인식 장치 |
CN105243143B (zh) * | 2015-10-14 | 2018-07-24 | 湖南大学 | 基于即时语音内容检测的推荐方法及*** |
CN106935239A (zh) * | 2015-12-29 | 2017-07-07 | 阿里巴巴集团控股有限公司 | 一种发音词典的构建方法及装置 |
CN107195296B (zh) * | 2016-03-15 | 2021-05-04 | 阿里巴巴集团控股有限公司 | 一种语音识别方法、装置、终端及*** |
US10593346B2 (en) * | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
CN107665705B (zh) * | 2017-09-20 | 2020-04-21 | 平安科技(深圳)有限公司 | 语音关键词识别方法、装置、设备及计算机可读存储介质 |
CN108417202B (zh) * | 2018-01-19 | 2020-09-01 | 苏州思必驰信息科技有限公司 | 语音识别方法及*** |
US10839159B2 (en) * | 2018-09-28 | 2020-11-17 | Apple Inc. | Named entity normalization in a spoken dialog system |
CN109493846B (zh) * | 2018-11-18 | 2021-06-08 | 深圳市声希科技有限公司 | 一种英语口音识别*** |
-
2019
- 2019-09-09 CN CN201910848567.7A patent/CN112562675B/zh active Active
- 2019-10-15 RU RU2019143666A patent/RU2733816C1/ru active
- 2019-10-15 KR KR1020197032746A patent/KR102334299B1/ko active IP Right Grant
- 2019-10-15 JP JP2019562645A patent/JP7116088B2/ja active Active
- 2019-10-15 WO PCT/CN2019/111308 patent/WO2021046958A1/zh active Application Filing
- 2019-12-15 US US16/714,790 patent/US11270693B2/en active Active
-
2020
- 2020-01-09 EP EP20151035.1A patent/EP3790001B1/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006146008A (ja) * | 2004-11-22 | 2006-06-08 | National Institute Of Advanced Industrial & Technology | 音声認識装置及び方法ならびにプログラム |
JP2013125144A (ja) * | 2011-12-14 | 2013-06-24 | Nippon Hoso Kyokai <Nhk> | 音声認識装置およびそのプログラム |
CN109841209A (zh) * | 2017-11-27 | 2019-06-04 | 株式会社速录抓吧 | 语音识别设备和*** |
Also Published As
Publication number | Publication date |
---|---|
US11270693B2 (en) | 2022-03-08 |
EP3790001A1 (en) | 2021-03-10 |
KR20210032875A (ko) | 2021-03-25 |
EP3790001B1 (en) | 2023-07-12 |
CN112562675B (zh) | 2024-05-24 |
WO2021046958A1 (zh) | 2021-03-18 |
CN112562675A (zh) | 2021-03-26 |
JP7116088B2 (ja) | 2022-08-09 |
KR102334299B1 (ko) | 2021-12-06 |
RU2733816C1 (ru) | 2020-10-07 |
US20210074273A1 (en) | 2021-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107632980B (zh) | 语音翻译方法和装置、用于语音翻译的装置 | |
JP7116088B2 (ja) | 音声情報処理方法、装置、プログラム及び記録媒体 | |
KR102081925B1 (ko) | 디스플레이 디바이스 및 스피치 검색 방법 | |
US10811005B2 (en) | Adapting voice input processing based on voice input characteristics | |
EP3896598A1 (en) | Method deciding whether to reject audio for processing and corresponding device and storage medium | |
CN111145756B (zh) | 一种语音识别方法、装置和用于语音识别的装置 | |
CN107274903B (zh) | 文本处理方法和装置、用于文本处理的装置 | |
CN111368541B (zh) | 命名实体识别方法及装置 | |
CN107564526B (zh) | 处理方法、装置和机器可读介质 | |
EP3767488A1 (en) | Method and device for processing untagged data, and storage medium | |
CN109582768B (zh) | 一种文本输入方法和装置 | |
CN108628819B (zh) | 处理方法和装置、用于处理的装置 | |
CN110069143B (zh) | 一种信息防误纠方法、装置和电子设备 | |
CN114154459A (zh) | 语音识别文本处理方法、装置、电子设备及存储介质 | |
CN111640452B (zh) | 一种数据处理方法、装置和用于数据处理的装置 | |
WO2021208531A1 (zh) | 一种语音处理方法、装置和电子设备 | |
CN105913841B (zh) | 语音识别方法、装置及终端 | |
CN112133295A (zh) | 语音识别方法、装置及存储介质 | |
CN111667829B (zh) | 信息处理方法及装置、存储介质 | |
CN113591495A (zh) | 语音翻译方法、装置及存储介质 | |
CN113035189A (zh) | 一种文档演示的控制方法、装置和设备 | |
CN113807082B (zh) | 一种目标用户确定方法、装置和用于确定目标用户的装置 | |
CN113539233B (zh) | 一种语音处理方法、装置和电子设备 | |
US20230196001A1 (en) | Sentence conversion techniques | |
CN112668340B (zh) | 一种信息处理方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191112 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220712 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220728 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7116088 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |