JP6538779B2 - 音声対話システム、音声対話方法、および音声対話システムを適合させる方法 - Google Patents
音声対話システム、音声対話方法、および音声対話システムを適合させる方法 Download PDFInfo
- Publication number
- JP6538779B2 JP6538779B2 JP2017154206A JP2017154206A JP6538779B2 JP 6538779 B2 JP6538779 B2 JP 6538779B2 JP 2017154206 A JP2017154206 A JP 2017154206A JP 2017154206 A JP2017154206 A JP 2017154206A JP 6538779 B2 JP6538779 B2 JP 6538779B2
- Authority
- JP
- Japan
- Prior art keywords
- success
- input
- measure
- acoustic features
- classifier
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 76
- 230000003993 interaction Effects 0.000 claims description 92
- 230000009471 action Effects 0.000 claims description 81
- 230000005236 sound signal Effects 0.000 claims description 40
- 239000013598 vector Substances 0.000 claims description 24
- 230000006870 function Effects 0.000 description 43
- 238000013528 artificial neural network Methods 0.000 description 12
- 238000007637 random forest analysis Methods 0.000 description 10
- 230000002452 interceptive effect Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 238000009826 distribution Methods 0.000 description 7
- 230000004044 response Effects 0.000 description 7
- 230000007774 longterm Effects 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 101100476979 Rhodobacter capsulatus sdsA gene Proteins 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000003058 natural language processing Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000003595 spectral effect Effects 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000001303 quality assessment method Methods 0.000 description 2
- 238000013442 quality metrics Methods 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241000094111 Parthenolecanium persicae Species 0.000 description 1
- 206010071299 Slow speech Diseases 0.000 description 1
- 206010048669 Terminal state Diseases 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000005311 autocorrelation function Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000003319 supportive effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/02—Feature extraction for speech recognition; Selection of recognition unit
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/21—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/24—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being the cepstrum
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/90—Pitch determination of speech signals
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Entrepreneurship & Innovation (AREA)
- Strategic Management (AREA)
- Development Economics (AREA)
- Educational Administration (AREA)
- Economics (AREA)
- General Physics & Mathematics (AREA)
- Operations Research (AREA)
- Marketing (AREA)
- Theoretical Computer Science (AREA)
- Game Theory and Decision Science (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- Quality & Reliability (AREA)
- Machine Translation (AREA)
- Signal Processing (AREA)
- Spectroscopy & Molecular Physics (AREA)
Description
本出願は、2017年2月6日に出願された先行英国特許出願第1701918.3号に基づき、その優先権の利益を主張するものであり、その内容全体は参照により本明細書に組み込まれる。
ユーザから発せられ、対話の一部を形成する音声信号に関するデータを受信するための入力部と、
アクションによって指定される情報を出力するための出力部と、
入力された音声信号から1つまたは複数の音響特徴を抽出することと、
対話モデルを使用してアクションを決定することと、ここにおいて、対話モデルへの入力は、入力された音声信号を使用して生成される、
出力部においてアクションによって指定される情報を出力することと、
音響特徴を使用して成功尺度を生成することと
を行うように構成されたプロセッサと
を備えるシステムが提供される。
状態トラッカーモデルを使用して、入力された音声信号に基づいてシステム状態を更新することと、
成功尺度を含めるようにシステム状態を更新することと
を行うようにさらに構成され、
更新されたシステム状態はポリシーモデルへの入力である。
ユーザから発せられ、対話の一部を形成する音声信号に関するデータを受信するための入力部と、
アクションによって指定される情報を出力するための出力部と、
入力された音声信号から1つまたは複数の音響特徴を抽出することと、
状態トラッカーモデルを使用して、入力された音声信号に基づいてシステム状態を更新することと、ここにおいて、更新されたシステム状態が1つまたは複数の音響特徴を備える、
ポリシーモデルを使用してアクションを決定することと、ここにおいて、ポリシーモデルへの入力が更新されたシステム状態である、
出力部において、アクションによって指定される情報を出力することと
を行うように構成されたプロセッサと
を備えるシステムも提供される。
アクションによって指定されるテキストを生成することと、
テキストを音声に変換し、出力部において音声信号を出力することと
を備える。
ユーザから発せられ、対話の一部を形成する音声信号に関するデータを受信するための入力部と、
成功尺度を出力するための出力部と、
入力された音声信号から1つまたは複数の音響特徴を抽出することと、
音響特徴を使用して特徴ベクトルを形成することと、
分類器への入力として特徴ベクトルを使用して成功尺度を生成することと、ここにおいて、分類器が対話の成功尺度を出力するように構成される
を行うように構成されたプロセッサと
を備えるシステムも提供される。
ユーザから発せられ、対話の一部を形成する、入力された音声信号から1つまたは複数の音響特徴を抽出することと、
対話モデルを使用してアクションを決定することと、ここにおいて、対話モデルへの入力は、入力された音声信号を使用して生成される、
出力部においてアクションによって指定される情報を出力することと、
音響特徴を使用して成功尺度を生成することと
を備える方法も提供される。
ユーザから発せられ、対話の一部を形成する、入力された音声信号から1つまたは複数の音響特徴を抽出することと、
状態トラッカーモデルを使用して、入力された音声信号に基づいてシステム状態を更新することと、ここにおいて、更新されたシステム状態は1つまたは複数の音響特徴を備える、
ポリシーモデルを使用してアクションを決定することと、ここにおいて、ポリシーモデルへの入力は更新されたシステム状態である、
出力部においてアクションによって指定される情報を出力することと
を備える方法も提供される。
入力された音声信号から1つまたは複数の音響特徴を抽出することと、
対話モデルを使用してアクションを決定することと、ここにおいて、ポリシーモデルへの入力は、入力された音声信号を使用して生成される、
出力部においてアクションに関する情報を出力することと、
音響特徴を使用して成功尺度を生成することと、
性能指標を高めるように対話モデルを適合させることと
を備える方法も提供される。
入力された音声信号から1つまたは複数の音響特徴を抽出することと、
分類器への入力として、音響特徴を使用して成功尺度を生成することと
データ内の成功尺度を使用して分類器を適合させることと
を備える方法も提供される。
入力された音声信号から1つまたは複数の音響特徴を抽出することと、
状態トラッカーモデルを使用して、入力された音声信号に基づいてシステム状態を更新することと、ここにおいて、更新されたシステム状態は1つまたは複数の音響特徴を備える、
ポリシーモデルを使用してアクションを決定することと、ここにおいて、ポリシーモデルへの入力は更新されたシステム状態である、
出力部においてアクションに関する情報を出力する、
性能指標を高めるようにポリシーモデルを適合させることと
を備える方法も提供される。
答えは、6ポイントのリッカート尺度。
答えは、はい、またはいいえ。
システム:こんにちは!あなたが適切なラップトップを見つけるのを手伝うために、私はここにいます。あなたの要求を教えてください。
ユーザ:業務用のラップトップが欲しいです。
S:あなたが考えているラップトップの価格帯は何ですか?たとえば、安価なラップトップ、高価なラップトップ、または手頃な価格のラップトップ?
U:気にしません。
S:Satellite u920t−117はビジネスコンピューティングのための非常に良いコンピュータです。
U:それは中程度の重さの範囲内ですか?
S:Satellite u920t−117の重さは1.52キロです。
...
Q1(主観的対話成功)とQ2(対話自然度)は、ユーザ満足度の構成要素である。分類器はまた、これらの2つのメトリクス以外に、客観的対話成功と対話ターンの数を予測した。
R={Y×(success measure)}−N
上式で、Nは対話ターンの総数(すなわち、分類器によって予測されたものではなく、実際に発生した対話ターンの数)であり、成功尺度はS709において分類器から出力されるか、またはS709において分類器からの出力を使用して決定される。Yは、たとえば20に等しくてもよいあらかじめ定義された係数である。Jは、継時的に関数Rによって定義される累積報酬の期待値である。Rは即時報酬を定義し、Jはその時点からの報酬を推定する。
R={Y×(success measure)}−N−(acoustic feature measure)
または、
R={Y×(success measure)}−N−{i*(acoustic_feature_measure)}+{p*Q1}+{s*Q2}
上式で、(acoustic feature measure)は、音響特徴のうちの1つまたは複数から決定され得る。たとえば、(acoustic feature measure)は、平均RMSがしきい値より大きい場合は0に等しくてよく、平均RMSがしきい値未満である場合は1に等しくてよい。i、p、およびsは重みである。Yはたとえば20であり得る。
Claims (7)
- 音声対話システムで使用するための成功評価システムであって、
ユーザから発せられ、対話の一部を形成する音声信号に関するデータを受信するための入力部と、
成功尺度を出力するための出力部と、
入力された前記音声信号から1つまたは複数の音響特徴を抽出することと、
前記音響特徴を使用して特徴ベクトルを形成することと、
分類器への入力として前記特徴ベクトルを使用して成功尺度を生成することと、ここにおいて、前記分類器は、前記対話の成功尺度を出力するように構成される
を行うように構成されたプロセッサとを備える、システム。 - 音声対話システムを適合させる方法であって、
入力された音声信号から1つまたは複数の音響特徴を抽出することと、
対話モデルを使用してアクションを決定することと、ここにおいて、前記対話モデルへの入力は、前記入力された音声信号を使用して生成される、
出力部において前記アクションに関する情報を出力することと、
前記音響特徴を使用して成功尺度を生成することと、
性能指標を高めるように前記対話モデルを適合させることとを備え、
前記性能指標は、前記成功尺度を使用して生成される、
方法。 - 前記性能指標は、報酬関数を使用して生成された報酬値であり、前記報酬関数は、前記成功尺度の関数である、請求項2に記載の方法。
- 前記報酬関数は、前記音響特徴のうちの1つまたは複数の関数でもある、請求項3に記載の方法。
- 特徴ベクトルは、前記音声信号から抽出された前記音響特徴を使用して生成され、分類器に入力され、前記分類器は、成功尺度を出力するように構成される、請求項2に記載の方法。
- 複数の分類器が存在し、それぞれが、報酬関数に含められる単一の成功尺度を形成するように合成される異なる成功尺度を生成する、請求項5に記載の方法。
- コンピュータに請求項2に記載の方法を実行させるように構成されたコンピュータ可読コードを備える、非一時的な記録媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB1701918.3A GB2559408B (en) | 2017-02-06 | 2017-02-06 | A spoken dialogue system, a spoken dialogue method and a method of adapting a spoken dialogue system |
GB1701918.3 | 2017-02-06 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018128659A JP2018128659A (ja) | 2018-08-16 |
JP6538779B2 true JP6538779B2 (ja) | 2019-07-03 |
Family
ID=58462432
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017154206A Active JP6538779B2 (ja) | 2017-02-06 | 2017-08-09 | 音声対話システム、音声対話方法、および音声対話システムを適合させる方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US10832667B2 (ja) |
JP (1) | JP6538779B2 (ja) |
GB (1) | GB2559408B (ja) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10387463B2 (en) * | 2017-07-06 | 2019-08-20 | International Business Machines Corporation | Dialog agent for conducting task-oriented computer-based communications |
US11436549B1 (en) | 2017-08-14 | 2022-09-06 | ClearCare, Inc. | Machine learning system and method for predicting caregiver attrition |
JP6919856B2 (ja) * | 2017-09-15 | 2021-08-18 | 富士通株式会社 | 強化学習プログラム、強化学習方法、および強化学習装置 |
US10424302B2 (en) * | 2017-10-12 | 2019-09-24 | Google Llc | Turn-based reinforcement learning for dialog management |
JP6805112B2 (ja) * | 2017-11-08 | 2020-12-23 | 株式会社東芝 | 対話システム、対話方法および対話プログラム |
US11093533B2 (en) * | 2018-06-05 | 2021-08-17 | International Business Machines Corporation | Validating belief states of an AI system by sentiment analysis and controversy detection |
US11397888B2 (en) * | 2018-06-14 | 2022-07-26 | Accenture Global Solutions Limited | Virtual agent with a dialogue management system and method of training a dialogue management system |
US11633103B1 (en) | 2018-08-10 | 2023-04-25 | ClearCare, Inc. | Automatic in-home senior care system augmented with internet of things technologies |
US11120226B1 (en) * | 2018-09-04 | 2021-09-14 | ClearCare, Inc. | Conversation facilitation system for mitigating loneliness |
US11238508B2 (en) | 2018-08-22 | 2022-02-01 | Ebay Inc. | Conversational assistant using extracted guidance knowledge |
US11631401B1 (en) | 2018-09-04 | 2023-04-18 | ClearCare, Inc. | Conversation system for detecting a dangerous mental or physical condition |
JP6952663B2 (ja) * | 2018-09-06 | 2021-10-20 | Kddi株式会社 | 応対支援装置及び応対支援方法 |
US11043214B1 (en) * | 2018-11-29 | 2021-06-22 | Amazon Technologies, Inc. | Speech recognition using dialog history |
US11393454B1 (en) * | 2018-12-13 | 2022-07-19 | Amazon Technologies, Inc. | Goal-oriented dialog generation using dialog template, API, and entity data |
US11200885B1 (en) * | 2018-12-13 | 2021-12-14 | Amazon Technologies, Inc. | Goal-oriented dialog system |
CN111694932A (zh) * | 2019-03-13 | 2020-09-22 | 百度在线网络技术(北京)有限公司 | 对话方法和装置 |
CN110010128A (zh) * | 2019-04-09 | 2019-07-12 | 天津松下汽车电子开发有限公司 | 一种高识别率的语音控制方法及*** |
US11574636B2 (en) * | 2019-08-29 | 2023-02-07 | Oracle International Corporation | Task-oriented dialog suitable for a standalone device |
CN110933236B (zh) * | 2019-10-25 | 2022-03-25 | 杭州哲信信息技术有限公司 | 一种基于机器学习的空号识别方法 |
CN111400466A (zh) * | 2020-03-05 | 2020-07-10 | 中国工商银行股份有限公司 | 一种基于强化学习的智能对话方法及装置 |
CN112417109B (zh) * | 2020-10-26 | 2023-08-01 | 问问智能信息科技有限公司 | 一种人机对话***的测试方法及装置 |
US20230186145A1 (en) * | 2021-12-13 | 2023-06-15 | International Business Machines Corporation | Knowledge augmented sequential decision-making under uncertainty |
WO2024067981A1 (en) * | 2022-09-29 | 2024-04-04 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Dialog system and method with improved human-machine dialog concepts |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6609093B1 (en) * | 2000-06-01 | 2003-08-19 | International Business Machines Corporation | Methods and apparatus for performing heteroscedastic discriminant analysis in pattern recognition systems |
JP2008203559A (ja) * | 2007-02-20 | 2008-09-04 | Toshiba Corp | 対話装置及び方法 |
US8660844B2 (en) * | 2007-10-24 | 2014-02-25 | At&T Intellectual Property I, L.P. | System and method of evaluating user simulations in a spoken dialog system with a diversion metric |
US8793119B2 (en) * | 2009-07-13 | 2014-07-29 | At&T Intellectual Property I, L.P. | System and method for generating manually designed and automatically optimized spoken dialog systems |
WO2012030838A1 (en) * | 2010-08-30 | 2012-03-08 | Honda Motor Co., Ltd. | Belief tracking and action selection in spoken dialog systems |
CA2747153A1 (en) * | 2011-07-19 | 2013-01-19 | Suleman Kaheer | Natural language processing dialog system for obtaining goods, services or information |
US9311430B2 (en) * | 2013-12-16 | 2016-04-12 | Mitsubishi Electric Research Laboratories, Inc. | Log-linear dialog manager that determines expected rewards and uses hidden states and actions |
US10108608B2 (en) * | 2014-06-12 | 2018-10-23 | Microsoft Technology Licensing, Llc | Dialog state tracking using web-style ranking and multiple language understanding engines |
JP2016020963A (ja) * | 2014-07-14 | 2016-02-04 | シャープ株式会社 | 対話評価装置、対話評価システム、対話評価方法および対話評価プログラム |
GB2537903B (en) | 2015-04-30 | 2019-09-04 | Toshiba Res Europe Limited | Device and method for a spoken dialogue system |
US10403273B2 (en) * | 2016-09-09 | 2019-09-03 | Oath Inc. | Method and system for facilitating a guided dialog between a user and a conversational agent |
-
2017
- 2017-02-06 GB GB1701918.3A patent/GB2559408B/en active Active
- 2017-08-09 JP JP2017154206A patent/JP6538779B2/ja active Active
- 2017-08-29 US US15/689,499 patent/US10832667B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
GB2559408B (en) | 2020-07-08 |
US20180226076A1 (en) | 2018-08-09 |
JP2018128659A (ja) | 2018-08-16 |
US10832667B2 (en) | 2020-11-10 |
GB201701918D0 (en) | 2017-03-22 |
GB2559408A (en) | 2018-08-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6538779B2 (ja) | 音声対話システム、音声対話方法、および音声対話システムを適合させる方法 | |
US10446148B2 (en) | Dialogue system, a dialogue method and a method of adapting a dialogue system | |
EP3857543B1 (en) | Conversational agent pipeline trained on synthetic data | |
US10635698B2 (en) | Dialogue system, a dialogue method and a method of adapting a dialogue system | |
US10176811B2 (en) | Neural network-based voiceprint information extraction method and apparatus | |
US10412223B2 (en) | Personalized support routing based on paralinguistic information | |
JP2021515905A (ja) | 音声認識方法、並びにその装置、デバイス、記憶媒体及びプログラム | |
CN104903954A (zh) | 使用基于人工神经网络的亚语音单位区分的说话人验证及识别 | |
CN111145733B (zh) | 语音识别方法、装置、计算机设备和计算机可读存储介质 | |
CN109313892A (zh) | 稳健的语言识别方法和*** | |
CN111081230A (zh) | 语音识别方法和设备 | |
KR20080023030A (ko) | 온라인 방식에 의한 화자 인식 방법 및 이를 위한 장치 | |
US11605377B2 (en) | Dialog device, dialog method, and dialog computer program | |
KR20180107940A (ko) | 음성 인식을 위한 학습 방법 및 장치 | |
CN103035244B (zh) | 一种可实时反馈用户朗读进度的语音跟踪方法 | |
GB2573213A (en) | A spoken dialogue system, a spoken dialogue method and a method of adapting a spoken dialogue system | |
US20230297778A1 (en) | Identifying high effort statements for call center summaries | |
RU2744063C1 (ru) | Способ и система определения говорящего пользователя управляемого голосом устройства | |
KR20240068723A (ko) | Rnn-T로 구현된 자동 음성 인식 시스템에서 음향과 텍스트 표현의 융합 | |
KR20240087228A (ko) | 박물관 안내를 위한 메타휴먼의 시나리오 기반 맞춤 대화형 ai 키오스크 시스템 및 이의 제어 방법 | |
JP2022065309A (ja) | 計算機システム及び学習方法 | |
JP2020042130A (ja) | 音声認識装置、音声認識方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180904 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181005 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181218 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190131 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190507 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190606 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6538779 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |