JP2014510942A - ハイブリッド型クライアントサーバ音声認識 - Google Patents
ハイブリッド型クライアントサーバ音声認識 Download PDFInfo
- Publication number
- JP2014510942A JP2014510942A JP2013554691A JP2013554691A JP2014510942A JP 2014510942 A JP2014510942 A JP 2014510942A JP 2013554691 A JP2013554691 A JP 2013554691A JP 2013554691 A JP2013554691 A JP 2013554691A JP 2014510942 A JP2014510942 A JP 2014510942A
- Authority
- JP
- Japan
- Prior art keywords
- computing device
- speech
- segment
- receiving
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 claims abstract description 68
- 238000000034 method Methods 0.000 claims abstract description 26
- 238000004458 analytical method Methods 0.000 claims description 12
- 238000013442 quality metrics Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 10
- 238000013461 design Methods 0.000 claims description 9
- 238000003860 storage Methods 0.000 claims description 8
- 230000008569 process Effects 0.000 abstract description 14
- 230000003993 interaction Effects 0.000 description 10
- 238000013459 approach Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000005291 magnetic effect Effects 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000013479 data entry Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000004171 remote diagnosis Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000013518 transcription Methods 0.000 description 1
- 230000035897 transcription Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/19—Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
- G10L15/193—Formal grammars, e.g. finite state automata, context free grammars or word networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/005—Language recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/32—Multiple recognisers used in sequence or in parallel; Score combination systems therefor, e.g. voting systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/60—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for measuring the quality of voice signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L43/00—Arrangements for monitoring or testing data switching networks
- H04L43/08—Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
- H04L43/0876—Network utilisation, e.g. volume of load or congestion level
- H04L43/0894—Packet rate
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/60—Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
- H04L67/63—Routing a service request depending on the request content or context
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/26—Devices for calling a subscriber
- H04M1/27—Devices whereby a plurality of signals may be stored simultaneously
- H04M1/271—Devices whereby a plurality of signals may be stored simultaneously controlled by voice recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L43/00—Arrangements for monitoring or testing data switching networks
- H04L43/08—Monitoring or testing based on specific metrics, e.g. QoS, energy consumption or environmental parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/72409—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
- H04M1/72412—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/7243—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
- H04M1/72436—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for text messaging, e.g. short messaging services [SMS] or e-mails
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/14—Details of telephonic subscriber devices including a card reading device
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/74—Details of telephonic subscriber devices with voice recognition means
Landscapes
- Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Artificial Intelligence (AREA)
- Environmental & Geological Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Telephonic Communication Services (AREA)
- Machine Translation (AREA)
- User Interface Of Digital Computer (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
この出願は、2011年2月22日付け出願の米国仮出願第61/445,433号の優先権の利益を主張し、その開示がその全体において参照によりここに組み込まれる。
Claims (20)
- 少なくとも1つのプログラマブルプロセッサを含むコンピューティングシステムによって実行されるときに、上記コンピューティングシステムに動作を実行させるコマンドを格納するコンピュータ可読記憶媒体を備えたコンピュータプログラム製品であって、
上記動作は、
受信コンピューティングデバイスにおいて、音声発話を受信して音声認識によって処理されるステップと、
上記音声発話を2つもしくはそれ以上の音声発話セグメントにセグメント化するステップと、
上記2つもしくはそれ以上の音声発話セグメントのそれぞれを複数の利用可能な音声認識器の1つに割り当てるステップとを含み、
上記割り当てるステップは、上記受信コンピューティングデバイスとは別のコンピューティングデバイス上に実装された上記複数の利用可能な音声認識器の1つの第1の音声認識器によって処理するために上記2つもしくはそれ以上の音声発話セグメントの第1のセグメントと、上記受信コンピューティングデバイス上に実装された上記複数の利用可能な音声認識器の第2の音声認識器によって処理するための上記2つもしくはそれ以上の音声発話セグメントの第2のセグメントとを指定することを含み、
上記動作は、
上記第1のセグメントを上記受信コンピューティングデバイスから、処理を行う上記別のコンピューティングデバイスに送信するステップと、
第1のセグメント処理結果を上記別のコンピューティングデバイスから戻されて受信するステップを含み、
上記送信するステップと上記受信するステップとは、データネットワークを介して行われ、
上記動作は、
上記受信コンピューティングデバイスにおいて上記第2のセグメントを処理して第2のセグメント処理結果を生成するステップと、
完了された音声認識結果を戻すステップとを含み、
上記完了された音声認識結果は、上記第1のセグメント処理結果及び上記第2の処理結果を含むコンピュータプログラム製品。 - 上記セグメント化するステップは、
上記受信コンピューティングデバイスにおいて、1つもしくはそれ以上のプロセッサ上に実装された音響モデルを用いて、上記音声発話を初期分析することを含み、
上記初期分析するステップは、上記別のコンピューティングデバイスによって上記受信コンピューティングデバイスよりも効率的に処理される上記受信された音声発話の特徴を識別する請求項1記載のコンピュータプログラム製品。 - 上記初期分析するステップは、
上記2つもしくはそれ以上の音声発話セグメントの少なくとも1つに対して、信頼スコア及びオーディオ品質測定基準を決定することを含む請求項2記載のコンピュータプログラム製品。 - 上記割り当てるステップは、
上記信頼スコア及び上記オーディオ品質測定基準の少なくとも1つが各しきい値未満であるときに上記別のコンピューティングデバイス上に実装された上記第1の音声認識器によって処理するために、上記第1のセグメントを指定することを含み、
上記各しきい値は、設計時間において定義されもしくは実行時間において動的に評価される1つもしくはそれ以上の測定基準に基づいて決定される請求項3記載のコンピュータプログラム製品。 - 上記受信コンピューティングデバイスは、シンクライアントコンピューティングデバイスもしくは端末を備え、
上記別のコンピューティングデバイスは、上記シンクライアントコンピューティングデバイスもしくは端末から上記データネットワークを介してアクセス可能な少なくとも1つのサーバを備える請求項1から4のうちのいずれか1つに記載のコンピュータプログラム製品。 - 上記割り当てるステップは、
上記第1のセグメントが上記初期分析するステップによって決定されて上記別のコンピューティングデバイスにおいて上記受信コンピューティングデバイスよりも速くアクセスできるデータに関連する1つもしくはそれ以上の単語を含むときに、上記別のコンピューティングデバイス上に実装される上記第1の音声認識器によって処理するために、上記第1のセグメントを指定することを含む請求項1から5のうちのいずれか1つに記載のコンピュータプログラム製品。 - 上記第1のセグメント処理結果は、適応される言語モデルを用いて上記別のコンピューティングデバイスによって実行される上記第1のセグメントの分析を含み、
上記適応される言語モデルは、上記別のコンピューティングデバイスにおいて上記受信コンピューティングデバイスにおけるよりも速くアクセスできるデータに基づいて適応化される請求項6記載のコンピュータプログラム製品。 - 少なくとも1つのプログラマブルプロセッサを含むコンピューティングデバイスと、コンピューティングシステムによって実行されるときに、上記コンピューティングシステムの上記少なくとも1つのプログラマブルプロセッサに動作を実行させるコマンドを格納するコンピュータ可読記憶媒体とを備えた受信コンピューティングデバイスであって、
上記動作は、
受信コンピューティングデバイスにおいて、音声発話を受信して音声認識によって処理されるステップと、
上記音声発話を2つもしくはそれ以上の音声発話セグメントにセグメント化するステップと、
上記2つもしくはそれ以上の音声発話セグメントのそれぞれを複数の利用可能な音声認識器の1つに割り当てるステップを含み、
上記割り当てるステップは、上記受信コンピューティングデバイスとは別のコンピューティングデバイス上に実装された上記複数の利用可能な音声認識器の1つの第1の音声認識器によって処理するために上記2つもしくはそれ以上の音声発話セグメントの第1のセグメントと、上記受信コンピューティングデバイス上に実装された上記複数の利用可能な音声認識器の第2の音声認識器によって処理するための上記2つもしくはそれ以上の音声発話セグメントの第2のセグメントとを指定することを含み、
上記動作は、
上記第1のセグメントを上記受信コンピューティングデバイスから、処理を行う上記別のコンピューティングデバイスに送信するステップと、
第1のセグメント処理結果を上記別のコンピューティングデバイスから戻されて受信するステップとを含み、
上記送信するステップと上記受信するステップとは、データネットワークを介して行われ、
上記動作は、
上記受信コンピューティングデバイスにおいて上記第2のセグメントを処理して第2のセグメント処理結果を生成するステップと、
完了された音声認識結果を戻すステップとを含み、
上記完了された音声認識結果は、上記第1のセグメント処理結果及び上記第2の処理結果を含む受信コンピューティングデバイス。 - 上記セグメント化するステップは、
上記受信コンピューティングデバイスにおいて、1つもしくはそれ以上のプロセッサ上に実装された音響モデルを用いて、上記音声発話を初期分析することを含み、
上記初期分析するステップは、上記別のコンピューティングデバイスによって上記受信コンピューティングデバイスよりも効率的に処理される上記受信された音声発話の特徴を識別する請求項8記載の受信コンピューティングデバイス。 - 上記初期分析するステップは、
上記2つもしくはそれ以上の音声発話セグメントの少なくとも1つに対して、信頼スコア及びオーディオ品質測定基準を決定することを含む請求項9記載の受信コンピューティングデバイス。 - 上記割り当てるステップは、
上記信頼スコア及び上記オーディオ品質測定基準の少なくとも1つが各しきい値未満であるときに上記別のコンピューティングデバイス上に実装された上記第1の音声認識器によって処理するために、上記第1のセグメントを指定することを含み、
上記各しきい値は、設計時間において定義されもしくは実行時間において動的に評価される1つもしくはそれ以上の測定基準に基づいて決定される請求項10記載の受信コンピューティングデバイス。 - 上記受信コンピューティングデバイスは、シンクライアントコンピューティングデバイスもしくは端末を備え、
上記別のコンピューティングデバイスは、上記シンクライアントコンピューティングデバイスもしくは端末から上記データネットワークを介してアクセス可能な少なくとも1つのサーバを備える請求項8から11のうちのいずれか1つに記載の受信コンピューティングデバイス。 - 上記割り当てるステップは、
上記第1のセグメントが上記初期分析するステップによって決定されて上記別のコンピューティングデバイスにおいて上記受信コンピューティングデバイスよりも速くアクセスできるデータに関連する1つもしくはそれ以上の単語を含むときに、上記別のコンピューティングデバイス上に実装される上記第1の音声認識器によって処理するために、上記第1のセグメントを指定することを含む請求項8から12のうちのいずれか1つに記載の受信コンピューティングデバイス。 - 上記第1のセグメント処理結果は、適応される言語モデルを用いて上記別のコンピューティングデバイスによって実行される上記第1のセグメントの分析を含み、
上記適応される言語モデルは、上記別のコンピューティングデバイスにおいて上記受信コンピューティングデバイスにおけるよりも速くアクセスできるデータに基づいて適応化される請求項13記載の受信コンピューティングデバイス。 - 少なくとも1つのプログラマブルプロセッサを含むコンピューティングシステムを備えた受信コンピューティングデバイスにおいて、音声発話を受信して、音声認識によって処理されるステップと、
上記コンピューティングシステムによって、上記音声発話を2つもしくはそれ以上の音声発話セグメントにセグメント化するステップと、
上記コンピューティングシステムによって、上記2つもしくはそれ以上の音声発話セグメントのそれぞれを複数の利用可能な音声認識器の1つに割り当てるステップとを含む方法であって、
上記割り当てるステップは、上記受信コンピューティングデバイスとは別のコンピューティングデバイス上に実装された上記複数の利用可能な音声認識器の1つの第1の音声認識器によって処理するために上記2つもしくはそれ以上の音声発話セグメントの第1のセグメントと、上記受信コンピューティングデバイス上に実装された上記複数の利用可能な音声認識器の第2の音声認識器によって処理するための上記2つもしくはそれ以上の音声発話セグメントの第2のセグメントとを指定することを含み、
上記方法は、
上記コンピューティングシステムによって、上記第1のセグメントを上記受信コンピューティングデバイスから、処理を行う上記別のコンピューティングデバイスに送信するステップと、
上記コンピューティングシステムによって、第1のセグメント処理結果を上記別のコンピューティングデバイスから戻されて受信するステップを含み、
上記送信するステップと上記受信するステップとは、データネットワークを介して行われ、
上記方法は、
上記コンピューティングシステムによって、上記受信コンピューティングデバイスにおいて上記第2のセグメントを処理して第2のセグメント処理結果を生成するステップと、
上記コンピューティングシステムによって、完了された音声認識結果を戻すステップとを含み、
上記完了された音声認識結果は、上記第1のセグメント処理結果及び上記第2の処理結果を含む方法。 - 上記セグメント化するステップは、
上記受信コンピューティングデバイスにおいて、1つもしくはそれ以上のプロセッサ上に実装された音響モデルを用いて、上記音声発話を初期分析することを含み、
上記初期分析するステップは、上記別のコンピューティングデバイスによって上記受信コンピューティングデバイスよりも効率的に処理される上記受信された音声発話の特徴を識別する請求項15記載の方法。 - 上記初期分析するステップは、
上記2つもしくはそれ以上の音声発話セグメントの少なくとも1つに対して、信頼スコア及びオーディオ品質測定基準を決定することを含む請求項16記載の方法。 - 上記割り当てるステップは、
上記信頼スコア及び上記オーディオ品質測定基準の少なくとも1つが各しきい値未満であるときに上記別のコンピューティングデバイス上に実装された上記第1の音声認識器によって処理するために、上記第1のセグメントを指定することを含み、
上記各しきい値は、設計時間において定義されもしくは実行時間において動的に評価される1つもしくはそれ以上の測定基準に基づいて決定される請求項17記載の方法。 - 上記受信コンピューティングデバイスは、シンクライアントコンピューティングデバイスもしくは端末を備え、
上記別のコンピューティングデバイスは、上記シンクライアントコンピューティングデバイスもしくは端末から上記データネットワークを介してアクセス可能な少なくとも1つのサーバを備える請求項15から18のうちのいずれか1つに記載の方法。 - 上記割り当てるステップは、
上記第1のセグメントが上記初期分析するステップによって決定されて上記別のコンピューティングデバイスにおいて上記受信コンピューティングデバイスよりも速くアクセスできるデータに関連する1つもしくはそれ以上の単語を含むときに、上記別のコンピューティングデバイス上に実装される上記第1の音声認識器によって処理するための上記第1のセグメントを指定することを含む請求項15から19のうちのいずれか1つに記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201161445433P | 2011-02-22 | 2011-02-22 | |
US61/445,433 | 2011-02-22 | ||
PCT/US2012/026185 WO2012116110A1 (en) | 2011-02-22 | 2012-02-22 | Hybridized client-server speech recognition |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2014510942A true JP2014510942A (ja) | 2014-05-01 |
JP2014510942A5 JP2014510942A5 (ja) | 2015-04-16 |
JP6317111B2 JP6317111B2 (ja) | 2018-04-25 |
Family
ID=45952632
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013554691A Active JP6317111B2 (ja) | 2011-02-22 | 2012-02-22 | ハイブリッド型クライアントサーバ音声認識 |
Country Status (4)
Country | Link |
---|---|
US (2) | US9674328B2 (ja) |
EP (1) | EP2678861B1 (ja) |
JP (1) | JP6317111B2 (ja) |
WO (1) | WO2012116110A1 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2013180197A1 (ja) * | 2012-05-30 | 2016-01-21 | Meiji Seikaファルマ株式会社 | 新規β−ラクタマーゼ阻害剤とその製造法 |
WO2019231055A1 (en) * | 2018-05-31 | 2019-12-05 | Hewlett-Packard Development Company, L.P. | Converting voice command into text code blocks that support printing services |
KR20200127814A (ko) * | 2019-05-02 | 2020-11-11 | 삼성전자주식회사 | 사용자의 입력 입력에 기초하여 타겟 디바이스를 결정하고, 타겟 디바이스를 제어하는 서버 및 그 동작 방법 |
JP2021505923A (ja) * | 2018-02-12 | 2021-02-18 | ラックスロボ カンパニー,リミティド | 音声命令による位置基盤音声認識システム(A Location Based Voice Recognition System Using A Voice Command) |
US11721343B2 (en) | 2019-05-02 | 2023-08-08 | Samsung Electronics Co., Ltd. | Hub device, multi-device system including the hub device and plurality of devices, and method of operating the same |
Families Citing this family (64)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8494852B2 (en) | 2010-01-05 | 2013-07-23 | Google Inc. | Word-level correction of speech input |
US9842299B2 (en) | 2011-01-25 | 2017-12-12 | Telepathy Labs, Inc. | Distributed, predictive, dichotomous decision engine for an electronic personal assistant |
WO2012116110A1 (en) * | 2011-02-22 | 2012-08-30 | Speak With Me, Inc. | Hybridized client-server speech recognition |
US9111542B1 (en) * | 2012-03-26 | 2015-08-18 | Amazon Technologies, Inc. | Audio signal transmission techniques |
US10354650B2 (en) | 2012-06-26 | 2019-07-16 | Google Llc | Recognizing speech with mixed speech recognition models to generate transcriptions |
US9583100B2 (en) * | 2012-09-05 | 2017-02-28 | GM Global Technology Operations LLC | Centralized speech logger analysis |
US8484025B1 (en) * | 2012-10-04 | 2013-07-09 | Google Inc. | Mapping an audio utterance to an action using a classifier |
KR101284594B1 (ko) * | 2012-10-26 | 2013-07-10 | 삼성전자주식회사 | 영상처리장치 및 그 제어방법, 영상처리 시스템 |
US9570076B2 (en) * | 2012-10-30 | 2017-02-14 | Google Technology Holdings LLC | Method and system for voice recognition employing multiple voice-recognition techniques |
US9591347B2 (en) | 2012-10-31 | 2017-03-07 | Google Inc. | Displaying simulated media content item enhancements on mobile devices |
US9875741B2 (en) | 2013-03-15 | 2018-01-23 | Google Llc | Selective speech recognition for chat and digital personal assistant systems |
US9190057B2 (en) * | 2012-12-12 | 2015-11-17 | Amazon Technologies, Inc. | Speech model retrieval in distributed speech recognition systems |
CN103065631B (zh) * | 2013-01-24 | 2015-07-29 | 华为终端有限公司 | 一种语音识别的方法、装置 |
CN103971680B (zh) * | 2013-01-24 | 2018-06-05 | 华为终端(东莞)有限公司 | 一种语音识别的方法、装置 |
US9542947B2 (en) | 2013-03-12 | 2017-01-10 | Google Technology Holdings LLC | Method and apparatus including parallell processes for voice recognition |
US9058805B2 (en) * | 2013-05-13 | 2015-06-16 | Google Inc. | Multiple recognizer speech recognition |
US20140337751A1 (en) * | 2013-05-13 | 2014-11-13 | Microsoft Corporation | Automatic creation of calendar items |
US9892733B2 (en) * | 2013-05-20 | 2018-02-13 | Speech Morphing Systems, Inc. | Method and apparatus for an exemplary automatic speech recognition system |
US9747900B2 (en) | 2013-05-24 | 2017-08-29 | Google Technology Holdings LLC | Method and apparatus for using image data to aid voice recognition |
US9818401B2 (en) | 2013-05-30 | 2017-11-14 | Promptu Systems Corporation | Systems and methods for adaptive proper name entity recognition and understanding |
US10170114B2 (en) | 2013-05-30 | 2019-01-01 | Promptu Systems Corporation | Systems and methods for adaptive proper name entity recognition and understanding |
EP3005152B1 (en) * | 2013-05-30 | 2024-03-27 | Promptu Systems Corporation | Systems and methods for adaptive proper name entity recognition and understanding |
US20140379346A1 (en) * | 2013-06-21 | 2014-12-25 | Google Inc. | Video analysis based language model adaptation |
US9026431B1 (en) * | 2013-07-30 | 2015-05-05 | Google Inc. | Semantic parsing with multiple parsers |
US10102851B1 (en) * | 2013-08-28 | 2018-10-16 | Amazon Technologies, Inc. | Incremental utterance processing and semantic stability determination |
US20140342772A1 (en) * | 2013-09-12 | 2014-11-20 | Bandwidth.Com, Inc. | Predictive Caching of IP Data |
US8825881B2 (en) * | 2013-09-12 | 2014-09-02 | Bandwidth.Com, Inc. | Predictive caching of IP data |
EP2851896A1 (en) | 2013-09-19 | 2015-03-25 | Maluuba Inc. | Speech recognition using phoneme matching |
DE102014200570A1 (de) * | 2014-01-15 | 2015-07-16 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und System zur Erzeugung eines Steuerungsbefehls |
US8868409B1 (en) | 2014-01-16 | 2014-10-21 | Google Inc. | Evaluating transcriptions with a semantic parser |
US9601108B2 (en) | 2014-01-17 | 2017-03-21 | Microsoft Technology Licensing, Llc | Incorporating an exogenous large-vocabulary model into rule-based speech recognition |
US10749989B2 (en) | 2014-04-01 | 2020-08-18 | Microsoft Technology Licensing Llc | Hybrid client/server architecture for parallel processing |
US10115394B2 (en) * | 2014-07-08 | 2018-10-30 | Mitsubishi Electric Corporation | Apparatus and method for decoding to recognize speech using a third speech recognizer based on first and second recognizer results |
US20160111090A1 (en) * | 2014-10-16 | 2016-04-21 | General Motors Llc | Hybridized automatic speech recognition |
US9530408B2 (en) * | 2014-10-31 | 2016-12-27 | At&T Intellectual Property I, L.P. | Acoustic environment recognizer for optimal speech processing |
JP6618992B2 (ja) * | 2015-04-10 | 2019-12-11 | 株式会社東芝 | 発言提示装置、発言提示方法およびプログラム |
EP3089159B1 (en) | 2015-04-28 | 2019-08-28 | Google LLC | Correcting voice recognition using selective re-speak |
US9966073B2 (en) * | 2015-05-27 | 2018-05-08 | Google Llc | Context-sensitive dynamic update of voice to text model in a voice-enabled electronic device |
US10083697B2 (en) | 2015-05-27 | 2018-09-25 | Google Llc | Local persisting of data for selectively offline capable voice action in a voice-enabled electronic device |
US9886423B2 (en) * | 2015-06-19 | 2018-02-06 | International Business Machines Corporation | Reconciliation of transcripts |
US10325590B2 (en) * | 2015-06-26 | 2019-06-18 | Intel Corporation | Language model modification for local speech recognition systems using remote sources |
US10282666B1 (en) | 2015-11-10 | 2019-05-07 | Google Llc | Coherency detection and information management system |
US20180025731A1 (en) * | 2016-07-21 | 2018-01-25 | Andrew Lovitt | Cascading Specialized Recognition Engines Based on a Recognition Policy |
KR20180012464A (ko) * | 2016-07-27 | 2018-02-06 | 삼성전자주식회사 | 전자 장치 및 그의 음성 인식 방법 |
KR102384641B1 (ko) * | 2017-02-20 | 2022-04-08 | 엘지전자 주식회사 | 다국어 처리를 수행하는 인공 지능 시스템의 제어 방법 |
DE102017206281A1 (de) * | 2017-04-12 | 2018-10-18 | Bayerische Motoren Werke Aktiengesellschaft | Verarbeitung einer Spracheingabe |
US10748531B2 (en) * | 2017-04-13 | 2020-08-18 | Harman International Industries, Incorporated | Management layer for multiple intelligent personal assistant services |
DE102017213946B4 (de) * | 2017-08-10 | 2022-11-10 | Audi Ag | Verfahren zum Aufbereiten eines Erkennungsergebnisses eines automatischen Online-Spracherkenners für ein mobiles Endgerät |
KR102170201B1 (ko) * | 2017-10-03 | 2020-10-27 | 구글 엘엘씨 | 센서 기반 검증을 통한 차량 기능 제어 |
DE102017128651A1 (de) * | 2017-12-02 | 2019-06-06 | Tobias Rückert | Dialogsystem und Verfahren zur Umsetzung von Anweisungen eines Nutzers |
CN107818797B (zh) * | 2017-12-07 | 2021-07-06 | 苏州科达科技股份有限公司 | 语音质量评价方法、装置及其*** |
CN108109625B (zh) * | 2017-12-21 | 2021-07-20 | 北京华夏电通科技股份有限公司 | 手机语音识别内外网传输***及方法 |
US11087766B2 (en) * | 2018-01-05 | 2021-08-10 | Uniphore Software Systems | System and method for dynamic speech recognition selection based on speech rate or business domain |
US10144346B1 (en) * | 2018-03-31 | 2018-12-04 | Jewel L. Dohan | Voice-recognition/voice-activated vehicle signal system |
US10860648B1 (en) * | 2018-09-12 | 2020-12-08 | Amazon Technologies, Inc. | Audio locale mismatch detection |
US11967318B2 (en) * | 2019-01-08 | 2024-04-23 | Samsung Electronics Co., Ltd. | Method and system for performing speech recognition in an electronic device |
CN109979487B (zh) * | 2019-03-07 | 2021-07-30 | 百度在线网络技术(北京)有限公司 | 语音信号检测方法和装置 |
US11367438B2 (en) * | 2019-05-16 | 2022-06-21 | Lg Electronics Inc. | Artificial intelligence apparatus for recognizing speech of user and method for the same |
WO2021029642A1 (en) | 2019-08-13 | 2021-02-18 | Samsung Electronics Co., Ltd. | System and method for recognizing user's speech |
WO2021029643A1 (en) | 2019-08-13 | 2021-02-18 | Samsung Electronics Co., Ltd. | System and method for modifying speech recognition result |
EP3931826A4 (en) | 2019-08-13 | 2022-05-11 | Samsung Electronics Co., Ltd. | SERVER SUPPORTING VOICE RECOGNITION OF A DEVICE AND METHOD OF OPERATING THE SERVER |
KR102281602B1 (ko) * | 2019-08-21 | 2021-07-29 | 엘지전자 주식회사 | 사용자의 발화 음성을 인식하는 인공 지능 장치 및 그 방법 |
US20220293109A1 (en) * | 2021-03-11 | 2022-09-15 | Google Llc | Device arbitration for local execution of automatic speech recognition |
US20230215459A1 (en) * | 2021-12-30 | 2023-07-06 | Comcast Cable Communication, Llc | Methods and systems for voice control |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11175091A (ja) * | 1997-12-05 | 1999-07-02 | Nec Corp | 電話回線用音声認識装置 |
JP2001109486A (ja) * | 1999-10-07 | 2001-04-20 | Sony Corp | 通信装置および方法、並びにプログラム格納媒体 |
JP2002539480A (ja) * | 1999-03-09 | 2002-11-19 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 音声認識方法 |
US6487534B1 (en) * | 1999-03-26 | 2002-11-26 | U.S. Philips Corporation | Distributed client-server speech recognition system |
US20060009980A1 (en) * | 2004-07-12 | 2006-01-12 | Burke Paul M | Allocation of speech recognition tasks and combination of results thereof |
Family Cites Families (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ZA948426B (en) * | 1993-12-22 | 1995-06-30 | Qualcomm Inc | Distributed voice recognition system |
US7174299B2 (en) | 1995-08-18 | 2007-02-06 | Canon Kabushiki Kaisha | Speech recognition system, speech recognition apparatus, and speech recognition method |
US7191135B2 (en) * | 1998-04-08 | 2007-03-13 | Symbol Technologies, Inc. | Speech recognition system and method for employing the same |
EP0980574B1 (en) * | 1997-10-20 | 2004-03-10 | Koninklijke Philips Electronics N.V. | Pattern recognition enrolment in a distributed system |
US6061646A (en) * | 1997-12-18 | 2000-05-09 | International Business Machines Corp. | Kiosk for multiple spoken languages |
US6195641B1 (en) * | 1998-03-27 | 2001-02-27 | International Business Machines Corp. | Network universal spoken language vocabulary |
US6526380B1 (en) * | 1999-03-26 | 2003-02-25 | Koninklijke Philips Electronics N.V. | Speech recognition system having parallel large vocabulary recognition engines |
US6408272B1 (en) * | 1999-04-12 | 2002-06-18 | General Magic, Inc. | Distributed voice user interface |
US20030182113A1 (en) * | 1999-11-22 | 2003-09-25 | Xuedong Huang | Distributed speech recognition for mobile communication devices |
US20020077814A1 (en) | 2000-12-18 | 2002-06-20 | Harinath Garudadri | Voice recognition system method and apparatus |
US6738743B2 (en) * | 2001-03-28 | 2004-05-18 | Intel Corporation | Unified client-server distributed architectures for spoken dialogue systems |
US7146321B2 (en) * | 2001-10-31 | 2006-12-05 | Dictaphone Corporation | Distributed speech recognition system |
US6785654B2 (en) * | 2001-11-30 | 2004-08-31 | Dictaphone Corporation | Distributed speech recognition system with speech recognition engines offering multiple functionalities |
GB2383459B (en) * | 2001-12-20 | 2005-05-18 | Hewlett Packard Co | Speech recognition system and method |
US7013275B2 (en) | 2001-12-28 | 2006-03-14 | Sri International | Method and apparatus for providing a dynamic speech-driven control and remote service access system |
US7340395B2 (en) * | 2004-04-23 | 2008-03-04 | Sap Aktiengesellschaft | Multiple speech recognition engines |
US20060235684A1 (en) * | 2005-04-14 | 2006-10-19 | Sbc Knowledge Ventures, Lp | Wireless device to access network-based voice-activated services using distributed speech recognition |
US9300790B2 (en) * | 2005-06-24 | 2016-03-29 | Securus Technologies, Inc. | Multi-party conversation analyzer and logger |
US7590536B2 (en) * | 2005-10-07 | 2009-09-15 | Nuance Communications, Inc. | Voice language model adjustment based on user affinity |
US20070094270A1 (en) * | 2005-10-21 | 2007-04-26 | Callminer, Inc. | Method and apparatus for the processing of heterogeneous units of work |
US8265933B2 (en) * | 2005-12-22 | 2012-09-11 | Nuance Communications, Inc. | Speech recognition system for providing voice recognition services using a conversational language model |
CN101034390A (zh) * | 2006-03-10 | 2007-09-12 | 日电(中国)有限公司 | 用于语言模型切换和自适应的装置和方法 |
US7720681B2 (en) * | 2006-03-23 | 2010-05-18 | Microsoft Corporation | Digital voice profiles |
EP2036079B1 (en) * | 2006-04-27 | 2011-01-12 | Mobiter Dicta Oy | A method, a system and a device for converting speech |
US20070276651A1 (en) * | 2006-05-23 | 2007-11-29 | Motorola, Inc. | Grammar adaptation through cooperative client and server based speech recognition |
US8069032B2 (en) * | 2006-07-27 | 2011-11-29 | Microsoft Corporation | Lightweight windowing method for screening harvested data for novelty |
US20080120094A1 (en) | 2006-11-17 | 2008-05-22 | Nokia Corporation | Seamless automatic speech recognition transfer |
US8731925B2 (en) * | 2006-12-22 | 2014-05-20 | Nuance Communications, Inc. | Solution that integrates voice enrollment with other types of recognition operations performed by a speech recognition engine using a layered grammar stack |
US20080288252A1 (en) | 2007-03-07 | 2008-11-20 | Cerra Joseph P | Speech recognition of speech recorded by a mobile communication facility |
US8762143B2 (en) | 2007-05-29 | 2014-06-24 | At&T Intellectual Property Ii, L.P. | Method and apparatus for identifying acoustic background environments based on time and speed to enhance automatic speech recognition |
US8099289B2 (en) | 2008-02-13 | 2012-01-17 | Sensory, Inc. | Voice interface and search for electronic devices including bluetooth headsets and remote systems |
US7933777B2 (en) * | 2008-08-29 | 2011-04-26 | Multimodal Technologies, Inc. | Hybrid speech recognition |
US8892443B2 (en) * | 2009-12-15 | 2014-11-18 | At&T Intellectual Property I, L.P. | System and method for combining geographic metadata in automatic speech recognition language and acoustic models |
EP2339576B1 (en) * | 2009-12-23 | 2019-08-07 | Google LLC | Multi-modal input on an electronic device |
US8468012B2 (en) * | 2010-05-26 | 2013-06-18 | Google Inc. | Acoustic model adaptation using geographic information |
US8473289B2 (en) * | 2010-08-06 | 2013-06-25 | Google Inc. | Disambiguating input based on context |
WO2012116110A1 (en) * | 2011-02-22 | 2012-08-30 | Speak With Me, Inc. | Hybridized client-server speech recognition |
-
2012
- 2012-02-22 WO PCT/US2012/026185 patent/WO2012116110A1/en active Application Filing
- 2012-02-22 US US13/402,678 patent/US9674328B2/en active Active
- 2012-02-22 JP JP2013554691A patent/JP6317111B2/ja active Active
- 2012-02-22 EP EP12713809.7A patent/EP2678861B1/en active Active
-
2017
- 2017-04-28 US US15/581,269 patent/US10217463B2/en active Active - Reinstated
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11175091A (ja) * | 1997-12-05 | 1999-07-02 | Nec Corp | 電話回線用音声認識装置 |
JP2002539480A (ja) * | 1999-03-09 | 2002-11-19 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 音声認識方法 |
US6487534B1 (en) * | 1999-03-26 | 2002-11-26 | U.S. Philips Corporation | Distributed client-server speech recognition system |
JP2001109486A (ja) * | 1999-10-07 | 2001-04-20 | Sony Corp | 通信装置および方法、並びにプログラム格納媒体 |
US20060009980A1 (en) * | 2004-07-12 | 2006-01-12 | Burke Paul M | Allocation of speech recognition tasks and combination of results thereof |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPWO2013180197A1 (ja) * | 2012-05-30 | 2016-01-21 | Meiji Seikaファルマ株式会社 | 新規β−ラクタマーゼ阻害剤とその製造法 |
JP2021505923A (ja) * | 2018-02-12 | 2021-02-18 | ラックスロボ カンパニー,リミティド | 音声命令による位置基盤音声認識システム(A Location Based Voice Recognition System Using A Voice Command) |
WO2019231055A1 (en) * | 2018-05-31 | 2019-12-05 | Hewlett-Packard Development Company, L.P. | Converting voice command into text code blocks that support printing services |
US11249696B2 (en) | 2018-05-31 | 2022-02-15 | Hewlett-Packard Development Company, L.P. | Converting voice command into text code blocks that support printing services |
KR20200127814A (ko) * | 2019-05-02 | 2020-11-11 | 삼성전자주식회사 | 사용자의 입력 입력에 기초하여 타겟 디바이스를 결정하고, 타겟 디바이스를 제어하는 서버 및 그 동작 방법 |
KR20210120960A (ko) * | 2019-05-02 | 2021-10-07 | 삼성전자주식회사 | 사용자의 입력 입력에 기초하여 타겟 디바이스를 결정하고, 타겟 디바이스를 제어하는 서버 및 그 동작 방법 |
KR102309540B1 (ko) | 2019-05-02 | 2021-10-07 | 삼성전자주식회사 | 사용자의 입력 입력에 기초하여 타겟 디바이스를 결정하고, 타겟 디바이스를 제어하는 서버 및 그 동작 방법 |
KR102429436B1 (ko) | 2019-05-02 | 2022-08-04 | 삼성전자주식회사 | 사용자의 입력 입력에 기초하여 타겟 디바이스를 결정하고, 타겟 디바이스를 제어하는 서버 및 그 동작 방법 |
US11721343B2 (en) | 2019-05-02 | 2023-08-08 | Samsung Electronics Co., Ltd. | Hub device, multi-device system including the hub device and plurality of devices, and method of operating the same |
Also Published As
Publication number | Publication date |
---|---|
US20170229122A1 (en) | 2017-08-10 |
US20120215539A1 (en) | 2012-08-23 |
EP2678861A1 (en) | 2014-01-01 |
EP2678861B1 (en) | 2018-07-11 |
US9674328B2 (en) | 2017-06-06 |
WO2012116110A1 (en) | 2012-08-30 |
US10217463B2 (en) | 2019-02-26 |
JP6317111B2 (ja) | 2018-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6317111B2 (ja) | ハイブリッド型クライアントサーバ音声認識 | |
KR102112814B1 (ko) | 다이얼로그 시스템들에서의 파라미터 수집 및 자동 다이얼로그 생성 | |
CN106201424B (zh) | 一种信息交互方法、装置及电子设备 | |
US11132509B1 (en) | Utilization of natural language understanding (NLU) models | |
CN111837116B (zh) | 自动构建或更新对话式ai***的对话流管理模型的方法 | |
KR20190100334A (ko) | 문맥상의 핫워드들 | |
CN105122354B (zh) | 分布式语音识别***中的语音模型检索 | |
KR20190046623A (ko) | 자기-학습 자연 언어 이해를 갖는 다이얼로그 시스템 | |
US11935521B2 (en) | Real-time feedback for efficient dialog processing | |
KR20170115501A (ko) | 크라우드 소싱에 기초해서 디지털 퍼스널 어시스턴트에 대한 언어 이해 분류기 모델을 업데이트하는 기법 | |
US11574637B1 (en) | Spoken language understanding models | |
US20210004538A1 (en) | Method for providing rich-expression natural language conversation by modifying reply, computer device and computer-readable recording medium | |
US11721338B2 (en) | Context-based dynamic tolerance of virtual assistant | |
CN116235164A (zh) | 聊天机器人的范围外自动转变 | |
JP2020042131A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
CN112767916A (zh) | 智能语音设备的语音交互方法、装置、设备、介质及产品 | |
CN111556999B (zh) | 通过即时提供实质性回答以提供自然语言对话的方法、计算机装置及计算机可读存储介质 | |
US20240144923A1 (en) | Using a generative adversarial network to train a semantic parser of a dialog system | |
US11481443B2 (en) | Method and computer device for providing natural language conversation by providing interjection response in timely manner, and computer-readable recording medium | |
KR20180089242A (ko) | 챗봇에서의 출력 유형에 따라 대화 내용을 생성하기 위한 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 | |
US20230169273A1 (en) | Systems and methods for natural language processing using a plurality of natural language models | |
US11646035B1 (en) | Dialog management system | |
US20220180865A1 (en) | Runtime topic change analyses in spoken dialog contexts | |
US11893996B1 (en) | Supplemental content output | |
US11790898B1 (en) | Resource selection for processing user inputs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150220 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160205 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160223 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20160519 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160823 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170510 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170801 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171129 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20180129 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180306 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180329 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6317111 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |