JP5951161B2 - 音声認識装置及び音声認識方法 - Google Patents
音声認識装置及び音声認識方法 Download PDFInfo
- Publication number
- JP5951161B2 JP5951161B2 JP2016514180A JP2016514180A JP5951161B2 JP 5951161 B2 JP5951161 B2 JP 5951161B2 JP 2016514180 A JP2016514180 A JP 2016514180A JP 2016514180 A JP2016514180 A JP 2016514180A JP 5951161 B2 JP5951161 B2 JP 5951161B2
- Authority
- JP
- Japan
- Prior art keywords
- speech recognition
- unit
- recognition result
- voice
- utterance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 21
- 230000010354 integration Effects 0.000 claims description 80
- 230000004044 response Effects 0.000 claims description 59
- 230000005540 biological transmission Effects 0.000 claims description 19
- 238000010586 diagram Methods 0.000 description 6
- 230000000306 recurrent effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000002245 particle Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C9/00—Individual registration on entry or exit
- G07C9/20—Individual registration on entry or exit involving the use of a pass
- G07C9/22—Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder
- G07C9/25—Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder using biometric data, e.g. fingerprints, iris scans or voice recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/285—Memory allocation or algorithm optimisation to reduce hardware requirements
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/32—Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/34—Adaptation of a single recogniser for parallel processing, e.g. by use of multiple processors or cloud computing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/008—Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/72—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for transmitting results of analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Telephonic Communication Services (AREA)
- Computer And Data Communications (AREA)
- Machine Translation (AREA)
- User Interface Of Digital Computer (AREA)
Description
図1は、本発明の実施の形態1に係る音声認識装置を用いた音声認識システムの一構成例を示す構成図である。
音声認識システムは、音声認識サーバ101およびクライアントの音声認識装置102によって構成される。
図2及び図3は、実施の形態1に係る音声認識装置の処理の流れを示すフローチャートである。
まず、ステップS101において、音声入力部106は、利用者が発話した音声をマイク等により音声データに変換した後、音声認識部107および送信部108へ音声データを出力する。
次に、ステップS102において、送信部108は、音声入力部106から入力された音声データを音声認識サーバ101へ送信する。
まず、ステップS201において、音声認識サーバ101は、受信部103がクライアントの音声認識装置102から送信された音声データを受信すると、受信した音声データをサーバの音声認識部104へ出力する。
次に、ステップS202において、サーバの音声認識部104は、受信部103から入力された音声データに対して任意の文章を認識対象とする自由文の音声認識を行ない、その結果得られた認識結果のテキスト情報を送信部105へ出力する。自由文の音声認識方法は、例えば、N−gram連続音声認識によるディクテーション技術を用いる。具体的には、サーバの音声認識部104は、クライアントの音声認識装置102から受信した音声データ「健児さんにメール、今から帰る」に対して音声認識を行なった後、音声認識結果候補として、例えば「検事さんに滅入る、今から帰る」を含む音声認識結果リストを出力する。なお、この音声認識結果候補で示したように、サーバの音声認識結果は、音声データに人名やコマンド名などが含まれる場合、音声認識が難しいため、認識誤りを含むことがある。
最後に、ステップS203において、送信部105は、サーバ音声認識部104が出力した音声認識結果を第1の音声認識結果としてクライアント音声認識装置102へ送信し、処理を終了する。
ステップS103において、クライアントの音声認識部107は、音声入力部106から入力された音声データに対して、音声操作用コマンドや人名などのキーワードを認識する音声認識を行ない、その結果得られた認識結果のテキスト情報を第2の音声認識結果として、認識結果統合部110へ出力する。キーワードの音声認識方法は、例えば、助詞も含めたフレーズを抽出するフレーズスポッティング技術を用いる。クライアントの音声認識部107は、音声操作用コマンドと人名情報が登録されてリスト化した認識辞書を記憶している。音声認識部107は、サーバのもつ大語彙の認識辞書では認識が難しい音声操作用コマンドと人名情報を認識対象とし、利用者が「健児さんにメール、今から帰る」と音声入力した場合に、音声認識部107は音声操作用コマンドの「メール」および人名情報である「健児」を認識し、音声認識結果候補として「健児さんにメール」を含む音声認識結果を出力する。
図4は、本発明の実施の形態1に係る音声認識装置102の発話規則記憶部115が記憶する発話規則の一例である。
図4には、音声操作用コマンドに対応する発話規則が示されている。発話規則は、人名情報を含む固有名詞とコマンドと自由文、及びその組み合わせパターンにより構成される。発話規則判定部114は、音声認識部107から入力された音声認識結果候補「健児さんにメール」と、発話規則記憶部115に格納されている発話規則のパターンとを比較して、一致する音声操作用コマンド「さんにメール」が見つかった場合は、その音声操作用コマンドに対応する入力音声の発話規則として「固有名詞+コマンド+自由文」の情報を取得する。そして、発話規則判定部114は、取得した発話規則の情報を認識結果統合部110へ出力するとともに、状態決定部111へ出力する。
例えば、音声認識部107の音声認識結果として「メール」が入力され、サーバの音声認識結果
として「滅入る」が入力された場合は、サーバの音声認識結果テキストに「メール」が含まれておらず、発話規則判定部114から入力された発話規則に合致しない。そのため、音声認識結果統合部110は、統合不可能と判定する。
図5は、サーバの音声認識結果とクライアントの音声認識結果の統合を説明する説明図である。
認識結果統合部110は、クライアントの音声認識結果が「健児さんにメール」であり、サーバの音声認識結果が「検事さんにメール、今から帰る」であったときに、クライアントの音声認識結果から固有名詞として「健児」を、コマンドとして「メール」を採用し、サーバの音声認識結果から自由文として「今から帰る」を採用する。そして、発話規則の発話要素である固有名詞、コマンド、自由文に採用した文字列をあてはめ、統合結果「健児さんにメール、今から帰る」を得る。
そして、認識結果統合部110は、統合結果とクライアント、サーバ両方の認識結果が得られたという情報を状態決定部111に出力する。例えば、統合結果「健児さんにメール、今から帰る」、クライアント音声認識結果:あり、サーバ音声認識結果:ありと状態決定部111へ送信する。
図6は、音声認識状態と、クライアントの音声認識結果の有無と、サーバ音声認識結果の有無と、発話規則との対応関係を示す図である。
音声認識状態は、発話規則の発話要素に対して、音声認識結果が得られているか否かを示している。状態決定部111は、サーバの音声認識結果の有無、クライアントの音声認識結果の有無及び発話規則から一意に音声認識状態が決まる対応関係を図6のような対応表により記憶している。言い換えれば、サーバからの音声認識結果がない場合で、発話規則に自由文が含まれている場合、サーバからの音声認識結果なしの場合は、自由文なしの場合に該当するというように、予めサーバの音声認識結果の有無と発話規則における各発話要素の有無との対応を定めておく。そのため、サーバとクライアントの音声認識結果の有無の情報から、音声認識結果が得られていない発話要素を特定できる。
例えば、状態決定部111は、発話規則:固有名詞+コマンド+自由文、クライアント音声認識結果:あり、サーバ音声認識結果:ありという情報を得た場合、記憶している対応関係に基づき、音声認識状態はS1と判断する。なお、図6において音声認識状態S4は、音声認識状態が決定できなかったことに対応する。
次に、ステップS112において、状態決定部111は、システムのコマンド「健児さんにメール、今から帰る」をシステムへ出力する。
ステップS106において、サーバからの認識結果が得られない場合、例えばサーバからの応答が一定時間T秒以上ない場合、受信部109は、サーバの音声認識結果なしという情報を認識結果統合部110へ送る。
認識結果統合部110は、クライアントからの音声認識結果とサーバからの音声認識結果がそろっているかを確認し、サーバからの音声認識がない場合は、ステップS107からS109の処理を行わず、ステップS115に進む。
また、状態決定部111は、システムへのコマンドが確定できない場合、音声認識状態S2を音声入力部106に出力して、Noの分岐によりステップS113へ進む。これは、音声入力部106に、次の入力音声は自由文であり、サーバに音声データを送信するということを指示するためである。
図7は、音声認識状態と、生成される応答文との関係を示す図である。
応答文は、音声認識結果が得られた発話要素を利用者に示し、音声認識結果が得られていない発話要素について発話を促す内容になっている。音声認識状態S2の場合は、固有名詞とコマンドは確定しており、自由文の音声認識結果がないため、自由文のみ発話を促す応答文を出力部113へ出力する。例えば、図7のS2で示すように「健児さんへメールします。本文をもう一度発話ください」という応答文を応答文生成部112は、出力部113へ出力する。
ステップS105において、受信部109はサーバ101から送信された音声認識結果を受信し、その音声認識結果を認識結果統合部110へ出力する。
ステップS106において、認識結果統合部110は、サーバからの音声認識結果は存在するが、クライアントからの音声認識結果は存在しないと判断し、Noの分岐によりステップS115へ進む。
次に、ステップS115において、認識結果統合部110は、クライアントの音声認識結果は存在しないので、発話規則判定部114にサーバの音声認識結果を出力し、Noの分岐によりステップS116へ進む。
次に、ステップS116において、発話規則判定部114は、前述の発話規則の判定を行ない、判定した発話規則を認識結果統合部110に出力する。次に、認識結果統合部110は、サーバの音声認識結果:あり、と統合結果「今から帰る」を状態決定部111に出力する。ここでは、クライアントの音声認識結果がないため、サーバの音声認識結果がそのまま統合結果になる。
次に、ステップS112において、状態決定部111は、システムへのコマンド「健児さんにメール、今から帰る」をシステムへ送信する。
次に、ステップS117において、出力部113は、応答文を通知する。例えば、「音声認識できません。」と利用者に通知する。
S101〜S104、S201〜S203は、クライアントの音声認識結果は得られるが、サーバからの音声認識結果が得られない場合と同じであるので、説明を省略する。
次に、ステップS115において、認識結果統合部110はクライアントの音声認識結果があるかを確認する。クライアントの音声認識結果がない場合、認識結果統合部110は、サーバの音声認識結果を発話規則判定部114に出力し、Noの分岐によりステップS116に進む。
次に、ステップS116において、発話規則判定部114は、サーバの音声認識結果に対して発話規則を判定する。例えば、「検事さんに滅入る、今から帰る」に対して、発話規則判定部114は、発話規則記憶部115に記憶されている音声操作用コマンドと一致するものがないか、もしくは、サーバの音声認識結果リストに対して音声操作用コマンドを検索し、音声操作用コマンドが含まれる確率が高い部分が存在するかを調べ、発話規則を判定する。ここでは、発話規則判定部114は、「検事さんに滅入る」「検事さんにメール」などを含む音声認識結果リストから、音声操作用コマンド「さんにメール」である確率が高いとして、発話規則が固有名詞+コマンド+自由文であると判定する。
発話規則判定部114は、判定した発話規則を認識結果統合部110と状態決定部111に出力する。認識結果統合部110は、クライアントの音声認識結果:なし、サーバからの音声認識結果:あり、統合結果:「検事さんに滅入る、今から帰る。」を状態決定部111に出力する。ここで、クライアントの音声認識結果がないため、統合結果は、サーバの音声認識結果そのものである。
次に、ステップS111において、状態決定部111は、システムへのコマンドを確定できるかを判断する。状態決定部111は、音声認識状態がS1でないため、システムへのコマンドを確定できないとして、音声認識状態を決定して、決定した音声認識状態を応答文生成部112に出力する。また、状態決定部111は、決定した音声認識状態を音声入力部106に出力する。これは、次に入力された音声は、サーバに送信せず、クライアントの音声認識部107に出力するようにするためである。
次に、ステップS114において、出力部113は、応答文をディスプレイやスピーカなどから出力し、利用者に音声認識結果が得られていない発話要素の再発話を促す。
次に、ステップS115において、認識結果統合部110は、クライアントの音声結果が存在するかを確認し、存在する場合、クライアントの音声認識結果:あり、サーバの音声認識結果:なし、統合結果:「健児さんにメール」を状態決定部111に出力する。ここで、認識結果統合部110は、サーバの音声認識結果がないため、クライアントの音声認識結果を統合結果としている。
以下のステップS111〜S112は、前述と同様であるため、説明を省略する。
なお、「いいえ」と利用者が発話した時は、状態決定部111は音声認識状態が決定できなかったと判断し、音声認識状態S4を応答文生成部112に出力する。その後はステップS117で示したように、出力部113を通して、利用者に音声認識できなかったことを通知する。このように、固有名詞+コマンドの発話要素を確定して良いかを利用者に問い合わせることで、固有名詞やコマンドの認識間違いを減らすことができる。
次に、実施の形態2に係る音声認識装置を説明する。実施の形態1では、サーバ及びクライアントのどちらかの音声認識結果がない場合について述べたが、実施の形態2は、サーバ及びクライアントのどちらかの音声認識結果はあるが、音声認識結果にあいまいさがあるため、音声認識結果の一部が確定しない場合について述べる。
音声認識部107は、利用者が「健児さんにメール」と発話した音声データに対して、音声認識を行なうが、発話状況により、「健児さんにメール」「健一さんにメール」と複数の音声認識候補がリストアップされ、かつどの音声認識候補も認識スコアが近い可能性がある。認識結果統合部110は、複数の音声認識候補がある場合、あいまいな固有名詞部分を利用者に問い合わせるために、音声認識結果として、例えば「??さんにメール」を生成する。
認識結果統合部110は、サーバの音声認識結果:あり、クライアントの音声認識結果:あり、統合結果「??さんにメール、今から帰る」を状態決定部111に出力する。
図8は、発話規則の発話要素の状態と音声認識状態の対応関係を示す図である。例えば、「??さんにメール、今から帰る」の場合は、固有名詞の部分が未確定であり、コマンドと自由文は確定しているので、音声認識状態はS2と決定される。状態決定部111は、音声認識状態S2を応答文生成部112に出力する。
Claims (6)
- 入力音声をサーバに送信する送信部と、
前記送信部により送信された前記入力音声を前記サーバで音声認識した結果である第1の音声認識結果を受信する受信部と、
前記入力音声の音声認識を行ない、第2の音声認識結果を得る音声認識部と、
前記入力音声の発話要素の構成を表現する発話規則を記憶する発話規則記憶部と、
前記発話規則を参照し、前記第2の音声認識結果に合致する前記発話規則を判定する発話規則判定部と、
前記第1の音声認識結果の有無及び前記第2の音声認識結果の有無と、前記発話規則を構成する前記発話要素の有無との対応関係を記憶しており、前記対応関係により、音声認識結果が得られていない前記発話要素を示す音声認識状態を決定する状態決定部と、
前記状態決定部により決定された前記音声認識状態に対応し、音声認識結果が得られていない前記発話要素を問い合わせる応答文を生成する応答文生成部と、
前記応答文を出力する出力部と、
を備える音声認識装置。 - 前記発話規則を用いて、前記第1の音声認識結果と前記第2の音声認識結果とを統合して統合結果を出力する統合結果認識部を備え、
前記状態決定部は、前記統合結果に対する前記音声認識状態を決定する請求項1に記載の音声認識装置。 - 前記発話規則は、固有名詞とコマンドと自由文とを備えることを特徴とする請求項1または請求項2に記載の音声認識装置。
- 前記受信部は、前記サーバで自由文を音声認識した前記第1の音声認識結果を受信し、
前記状態決定部は、前記第1の音声認識結果に対してコマンドの推定を行ない、前記音声認識状態を決定する請求項3に記載の音声認識装置。 - 前記音声認識部は、複数の前記第2の音声認識結果を出力し、
前記応答文生成部は、複数の前記第2の音声認識結果のうちいずれかを利用者に選択させる前記応答文を生成する請求項1から請求項4のいずれか1項に記載の音声認識装置。 - 送信部と、受信部と、音声認識部と、発話規則判定部と、状態決定部と、応答文生成部と、出力部とを備え、発話要素の構成を表現する発話規則をメモリに記憶する音声認識装置の音声認識方法であって、
前記送信部が、入力音声をサーバに送信する送信ステップと、
前記受信部が、前記送信ステップにより送信された前記入力音声を前記サーバで音声認識した結果である第1の音声認識結果を受信する受信ステップと、
前記音声認識部が、前記入力音声の音声認識を行ない、第2の音声認識結果を得る音声認識ステップと、
前記発話規則判定部が、前記発話規則を参照し、前記第2の音声認識結果に合致する前記発話規則を判定する発話規則判定ステップと、
前記状態決定部が、前記第1の音声認識結果の有無及び前記第2の音声認識結果の有無と、前記発話規則を構成する前記発話要素の有無との対応関係を記憶しており、前記対応関係により、音声認識結果が得られていない前記発話要素を示す音声認識状態を決定する状態決定ステップと、
前記応答文生成部が、前記状態決定ステップにより決定された前記音声認識状態に対応し、音声認識結果が得られていない前記発話要素を問い合わせる応答文を生成する応答文生成ステップと、
前記出力部が、前記応答文を出力するステップと、
を備える音声認識方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014149739 | 2014-07-23 | ||
JP2014149739 | 2014-07-23 | ||
PCT/JP2015/070490 WO2016013503A1 (ja) | 2014-07-23 | 2015-07-17 | 音声認識装置及び音声認識方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP5951161B2 true JP5951161B2 (ja) | 2016-07-13 |
JPWO2016013503A1 JPWO2016013503A1 (ja) | 2017-04-27 |
Family
ID=55163029
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016514180A Expired - Fee Related JP5951161B2 (ja) | 2014-07-23 | 2015-07-17 | 音声認識装置及び音声認識方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20170194000A1 (ja) |
JP (1) | JP5951161B2 (ja) |
CN (1) | CN106537494B (ja) |
DE (1) | DE112015003382B4 (ja) |
WO (1) | WO2016013503A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2015083741A1 (ja) * | 2013-12-03 | 2017-03-16 | 株式会社リコー | 中継装置、表示装置および通信システム |
KR102346302B1 (ko) * | 2015-02-16 | 2022-01-03 | 삼성전자 주식회사 | 전자 장치 및 음성 인식 기능 운용 방법 |
EP3511931A4 (en) * | 2016-09-09 | 2019-08-21 | Sony Corporation | SPEECH PROCESSING DEVICE, INFORMATION PROCESSING DEVICE, SPEECH PROCESSING METHOD, AND INFORMATION PROCESSING METHOD |
US9959861B2 (en) * | 2016-09-30 | 2018-05-01 | Robert Bosch Gmbh | System and method for speech recognition |
EP3573051A4 (en) * | 2017-01-18 | 2020-01-22 | Sony Corporation | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM |
US11100384B2 (en) | 2017-02-14 | 2021-08-24 | Microsoft Technology Licensing, Llc | Intelligent device user interactions |
US11010601B2 (en) | 2017-02-14 | 2021-05-18 | Microsoft Technology Licensing, Llc | Intelligent assistant device communicating non-verbal cues |
US10467509B2 (en) | 2017-02-14 | 2019-11-05 | Microsoft Technology Licensing, Llc | Computationally-efficient human-identifying smart assistant computer |
EP3742301A4 (en) * | 2018-01-17 | 2020-11-25 | Sony Corporation | INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING PROCESS |
CN108320752B (zh) * | 2018-01-26 | 2020-12-15 | 青岛易方德物联科技有限公司 | 应用于社区门禁的云声纹识别***及其方法 |
CN108520760B (zh) * | 2018-03-27 | 2020-07-24 | 维沃移动通信有限公司 | 一种语音信号处理方法及终端 |
JP2019200393A (ja) * | 2018-05-18 | 2019-11-21 | シャープ株式会社 | 判定装置、電子機器、応答システム、判定装置の制御方法、および制御プログラム |
US20220148574A1 (en) * | 2019-02-25 | 2022-05-12 | Faurecia Clarion Electronics Co., Ltd. | Hybrid voice interaction system and hybrid voice interaction method |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006011066A (ja) * | 2004-06-25 | 2006-01-12 | Nec Corp | 音声認識/合成システム、同期制御方法、同期制御プログラム、および同期制御装置 |
WO2006083020A1 (ja) * | 2005-02-04 | 2006-08-10 | Hitachi, Ltd. | 抽出された音声データを用いて応答音声を生成する音声認識システム |
JP2010085536A (ja) * | 2008-09-30 | 2010-04-15 | Fyuutorekku:Kk | 音声認識システム、音声認識方法、音声認識クライアントおよびプログラム |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2355833B (en) * | 1999-10-29 | 2003-10-29 | Canon Kk | Natural language input method and apparatus |
JP2007033901A (ja) * | 2005-07-27 | 2007-02-08 | Nec Corp | 音声認識システム、音声認識方法、および音声認識用プログラム |
KR100834679B1 (ko) * | 2006-10-31 | 2008-06-02 | 삼성전자주식회사 | 음성 인식 오류 통보 장치 및 방법 |
JP5042799B2 (ja) * | 2007-04-16 | 2012-10-03 | ソニー株式会社 | 音声チャットシステム、情報処理装置およびプログラム |
US8219407B1 (en) | 2007-12-27 | 2012-07-10 | Great Northern Research, LLC | Method for processing the output of a speech recognizer |
US9384736B2 (en) | 2012-08-21 | 2016-07-05 | Nuance Communications, Inc. | Method to provide incremental UI response based on multiple asynchronous evidence about user input |
-
2015
- 2015-07-17 WO PCT/JP2015/070490 patent/WO2016013503A1/ja active Application Filing
- 2015-07-17 US US15/315,201 patent/US20170194000A1/en not_active Abandoned
- 2015-07-17 DE DE112015003382.3T patent/DE112015003382B4/de not_active Expired - Fee Related
- 2015-07-17 CN CN201580038253.0A patent/CN106537494B/zh not_active Expired - Fee Related
- 2015-07-17 JP JP2016514180A patent/JP5951161B2/ja not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006011066A (ja) * | 2004-06-25 | 2006-01-12 | Nec Corp | 音声認識/合成システム、同期制御方法、同期制御プログラム、および同期制御装置 |
WO2006083020A1 (ja) * | 2005-02-04 | 2006-08-10 | Hitachi, Ltd. | 抽出された音声データを用いて応答音声を生成する音声認識システム |
JP2010085536A (ja) * | 2008-09-30 | 2010-04-15 | Fyuutorekku:Kk | 音声認識システム、音声認識方法、音声認識クライアントおよびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20170194000A1 (en) | 2017-07-06 |
CN106537494B (zh) | 2018-01-23 |
DE112015003382T5 (de) | 2017-04-20 |
CN106537494A (zh) | 2017-03-22 |
JPWO2016013503A1 (ja) | 2017-04-27 |
WO2016013503A1 (ja) | 2016-01-28 |
DE112015003382B4 (de) | 2018-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5951161B2 (ja) | 音声認識装置及び音声認識方法 | |
US10210862B1 (en) | Lattice decoding and result confirmation using recurrent neural networks | |
CN106663424B (zh) | 意图理解装置以及方法 | |
JP5480760B2 (ja) | 端末装置、音声認識方法および音声認識プログラム | |
JP6574169B2 (ja) | 多方向の復号をする音声認識 | |
US10650802B2 (en) | Voice recognition method, recording medium, voice recognition device, and robot | |
JP5089955B2 (ja) | 音声対話装置 | |
US10506088B1 (en) | Phone number verification | |
US20060122837A1 (en) | Voice interface system and speech recognition method | |
JP2018081298A (ja) | 自然語処理方法及び装置と自然語処理モデルを学習する方法及び装置 | |
WO2018092786A1 (ja) | 音声認識装置、音声認識システム | |
JP2010048953A (ja) | 対話文生成装置 | |
US10866948B2 (en) | Address book management apparatus using speech recognition, vehicle, system and method thereof | |
JP6468258B2 (ja) | 音声対話装置および音声対話方法 | |
JP2006189730A (ja) | 音声対話方法および音声対話装置 | |
JP2019015950A (ja) | 音声認識方法、プログラム、音声認識装置、及びロボット | |
JP6001944B2 (ja) | 音声コマンド制御装置、音声コマンド制御方法及び音声コマンド制御プログラム | |
KR101283271B1 (ko) | 어학 학습 장치 및 어학 학습 방법 | |
US10832675B2 (en) | Speech recognition system with interactive spelling function | |
EP1039395A2 (en) | Document retrieving apparatus and document retrieving method | |
KR100952974B1 (ko) | 미등록어 처리를 지원하는 음성 인식 시스템과 방법 및이를 저장한 컴퓨터 판독 가능 기록매체 | |
JP2007264229A (ja) | 対話装置 | |
US11978445B1 (en) | Confidence scoring for selecting tones and text of voice browsing conversations | |
AU2018101475B4 (en) | Improving automatic speech recognition based on user feedback | |
KR101830210B1 (ko) | 적어도 하나의 의미론적 유닛의 집합을 개선하기 위한 방법, 장치 및 컴퓨터 판독 가능한 기록 매체 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20160428 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160510 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160607 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5951161 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |