JPWO2017200076A1 - 対話方法、対話システム、対話装置、およびプログラム - Google Patents
対話方法、対話システム、対話装置、およびプログラム Download PDFInfo
- Publication number
- JPWO2017200076A1 JPWO2017200076A1 JP2018518375A JP2018518375A JPWO2017200076A1 JP WO2017200076 A1 JPWO2017200076 A1 JP WO2017200076A1 JP 2018518375 A JP2018518375 A JP 2018518375A JP 2018518375 A JP2018518375 A JP 2018518375A JP WO2017200076 A1 JPWO2017200076 A1 JP WO2017200076A1
- Authority
- JP
- Japan
- Prior art keywords
- utterance
- user
- dialogue
- scenario
- determined
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 42
- 230000002452 interceptive effect Effects 0.000 claims description 32
- 230000004043 responsiveness Effects 0.000 abstract description 4
- 239000003795 chemical substances by application Substances 0.000 description 37
- 238000012545 processing Methods 0.000 description 27
- 230000006870 function Effects 0.000 description 14
- 230000008569 process Effects 0.000 description 12
- 230000004044 response Effects 0.000 description 12
- 230000006399 behavior Effects 0.000 description 9
- 230000015572 biosynthetic process Effects 0.000 description 8
- 238000003786 synthesis reaction Methods 0.000 description 8
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 235000013305 food Nutrition 0.000 description 4
- 241000282412 Homo Species 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 206010037180 Psychiatric symptoms Diseases 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 230000009118 appropriate response Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000003467 diminishing effect Effects 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 229940079593 drug Drugs 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 230000035876 healing Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 235000015277 pork Nutrition 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000001308 synthesis method Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000002560 therapeutic procedure Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/04—Details of speech synthesis systems, e.g. synthesiser structure or memory management
- G10L13/047—Architecture of speech synthesisers
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Manipulator (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
第一実施形態の対話システムは、複数台の人型ロボットが協調してユーザとの対話を行うシステムである。すなわち、第一実施形態の対話システムは、エージェントが人型ロボットである場合の一例である。対話システム10は、図1に示すように、入力部1、音声認識部2、発話決定部3、音声合成部4、および提示部5を備える。この対話システム10が後述する各ステップの処理を行うことにより第一実施形態の対話方法が実現される。なお、図1に示すように、対話システム10の音声認識部2、発話決定部3、音声合成部4による部分を第一実施形態の対話装置11とする。発話決定部3は、外部に存在する雑談対話システム6およびシナリオ対話システム7と通信可能なインターフェースを備える。雑談対話システム6およびシナリオ対話システム7は同様の機能を持つ処理部として対話装置11内に構成しても構わない。なお、雑談対話システム6は少なくともユーザの発話内容に基づいた発話をエージェントが行う対話システムの一例であり、シナリオ対話システム7は予め記憶されたシナリオに基づいた発話をエージェントが行う対話システムの一例である。
H:「ラーメンが好き!」
R(1→H):「豚骨がいいよね。」(※1)
R(2→1):「僕たちロボットだから、何も食べられないんだけどね。」(※2)
R(1→2):「それはしょうがないよ。」(※2)
R(2→1):「そっか。」(※2)
第一実施形態では、ステップS11においてシナリオ対話システム7が選択したオープン発話をスピーカから出力する例を説明したが、ステップS11においてスピーカから出力するオープン発話はどのように生成されたものでもよい。
第一実施形態では、ステップS13においてユーザの発話に基づいて雑談対話システム6が決定した雑談発話の内容を表す音声をスピーカから出力する例、すなわち、ステップS13において雑談対話システム6が決定した1つの雑談発話の内容を表す音声をスピーカから出力する例を説明したが、ステップS13において雑談対話システム6が決定した複数の雑談発話の内容を表す音声をスピーカから出力してもよい。
第一実施形態の対話システム10は、複数台の人型ロボットが協調してユーザとの対話を行うシステムであったが、ユーザとの対話の全てまたは一部を1台の人型ロボットが行うシステムであってもよい。例えば、ステップS11のオープン発話、ステップS13のユーザの発話に基づいて雑談対話システム6が決定した雑談発話、およびステップS14のシナリオ対話システム7が決定したシナリオ発話を同じ1台の人型ロボットが行うようにしてもよい。この場合は、例えば、ステップS14以降のユーザとの対話は、複数台の人型ロボットで協調して行ってもよいし、ステップS14までと同じ1台の人型ロボットが行ってもよい。
第二実施形態では、ユーザの話題への参加感を向上するために、シナリオ対話から雑談対話に移行し、その後、雑談対話から再度シナリオ対話へ移行する。シナリオ対話の間に雑談対話を挿入することで、対話の流れが自然になり、話題の決定に自分も参加している感覚をユーザへ与えることができる。これにより、ユーザはその後に続くシナリオ対話においても長く対話を続けることが可能となる。
R(2→1):「お寿司が好き。」(※1:シナリオ対話システム7が選択した第一シナリオに基づいて決定した発話内容である。)
H:「この話、さっきもしたよ。」(※「A2−2.進行中のシナリオに対するユーザの振る舞いからそのシナリオについて話したくない意思が認識された場合」の具体例である。)
R(1→H):「食べること以外で、何が好き?」(※1:以前の対話内容である「食べ物」に基づいてシナリオ対話システム7が選択した第一シナリオに含まれる発話の具体例である。)
H:「読書かな。」
R(1→H):「好きな本のジャンルは何?」(※2:ユーザ発話の「読書」に基づいて雑談対話システム6が決定した発話の具体例である。)
H:「スポーツ漫画が好きだよ」
R(2→H):「スポーツはよくやるの?」(※2:雑談対話を複数回繰り返す具体例である。ここではユーザ発話の「スポーツ」に基づいて雑談対話システム6が発話内容を決定している。)
H:「スポーツはあんまり好きじゃないな」
R(2→H):「そっか」(※3:「B1−2.進行中の雑談対話に対するユーザの振る舞いからそのシナリオについて話したくない意思が認識された場合」に雑談対話の継続が困難と判断する場合の具体例である。ユーザが「あんまり好きじゃない」と話題を否定したため、雑談対話の継続が困難と判断している。ここでは、まず直前のユーザ発話を相槌で受けている。)
R(1→2):「そういえば,ぼくはこの前スキーをしてきたよ」(※3:最初に、話題を変えようとしていることを表す「そういえば」を発話し、続いて、雑談対話の内容であった「スポーツ」に基づいてシナリオ対話システム7が選択した第二シナリオに含まれる発話を行っている。)
R(2→1):「その体型でスキーは難しいんじゃない?」(※3:雑談対話の内容であった「スポーツ」に基づいてシナリオ対話システム7が選択した第二シナリオに含まれる発話の具体例である。)
上述した実施形態では、エージェントとしてロボットを用いて音声による対話を行う例を説明したが、上述した実施形態のロボットは身体等を有する人型ロボットであっても、身体等を有さないロボットであってもよい。また、この発明の対話技術はこれらに限定されず、人型ロボットのように身体等の実体がなく、発声機構を備えないエージェントを用いて対話を行う形態とすることも可能である。そのような形態としては、例えば、コンピュータの画面上に表示されたエージェントを用いて対話を行う形態が挙げられる。より具体的には、「LINE」(登録商標)や「2ちゃんねる」(登録商標)のような、複数アカウントがテキストメッセージにより対話を行うグループチャットにおいて、ユーザのアカウントと対話装置のアカウントとが対話を行う形態に適用することも可能である。この形態では、エージェントを表示する画面を有するコンピュータは人の近傍にある必要があるが、当該コンピュータと対話装置とはインターネットなどのネットワークを介して接続されていてもよい。つまり、本対話システムは、人とロボットなどの話者同士が実際に向かい合って話す対話だけではなく、話者同士がネットワークを介してコミュニケーションを行う会話にも適用可能である。
上記実施形態で説明した対話装置における各種の処理機能をコンピュータによって実現する場合、対話装置が有すべき機能の処理内容はプログラムによって記述される。また、上記変形例で説明した対話システムにおける各種の処理機能をコンピュータによって実現する場合、対話システムが有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記対話装置および対話システムにおける各種の処理機能がコンピュータ上で実現される。
Claims (7)
- 予め記憶されたシナリオに基づいた発話を決定する対話システムを第一の対話システムとよび、少なくともユーザの発話内容に基づいた発話を決定する対話システムを第二の対話システムとよぶとしたとき、
提示部が、オープン発話を提示する第一提示ステップと、
入力部が、上記オープン発話に対するユーザの発話を受け付ける発話受付ステップと、
上記提示部が、上記ユーザの発話に基づいて第二の対話システムが決定した発話を提示する第二提示ステップと、
上記提示部が、第一の対話システムが決定した発話を上記第二提示ステップの後に提示する第三提示ステップと、
を含む対話方法。 - 請求項1に記載の対話方法であって、
上記各提示ステップは複数のロボットが行うものであり、
上記第一提示ステップは、上記複数のロボットのうちの何れかのロボットが発話するものであり、
上記発話受付ステップは、上記ユーザの発話を音声認識して受け付けるものであり、
上記第二提示ステップは、上記複数のロボットのうちの何れかのロボットである第一のロボットが発話するものであり、
上記第三提示ステップは、上記複数のロボットのうちの上記第一のロボットとは異なるロボットである第二のロボットが発話するものである、
対話方法。 - 請求項1に記載の対話方法であって、
上記各提示ステップはグループチャットにおける複数のアカウントにより行うものであり、
上記第一提示ステップは、グループチャットにおいて上記複数のアカウントの何れかのアカウントにより提示するものであり、
上記発話受付ステップは、上記グループチャットにおいて上記ユーザの投稿を受け付けるものであり、
上記第二提示ステップは、上記グループチャットにおいて上記複数のアカウントのうちの何れかのアカウントである第一のアカウントにより提示するものであり、
上記第三提示ステップは、上記グループチャットにおいて上記複数のアカウントのうち上記第一のアカウントとは異なる第二のアカウントにより提示するものである、
対話方法。 - 予め記憶されたシナリオに基づいた発話を決定する対話システムを第一の対話システムとよび、少なくともユーザの発話内容に基づいた発話を決定する対話システムを第二の対話システムとよぶとしたとき、
オープン発話を決定し、上記オープン発話後に上記オープン発話に対するユーザの発話に基づいて第二の対話システムにより発話を決定し、上記第二の対話システムにより決定した発話後に第一の対話システムにより発話を決定する発話決定部と、
上記オープン発話に対するユーザの発話を受け付ける入力部と、
上記発話決定部が決定したオープン発話を提示し、上記発話決定部が上記第二の対話システムにより決定した発話を上記ユーザの発話の後に提示し、上記発話決定部が上記第一の対話システムにより決定した発話を上記第二の対話システムが決定した発話の後に提示する提示部と、
を含む対話システム。 - ユーザの発話を受け付ける入力部と、発話を提示する提示部とを少なくとも含む対話システムが提示する発話を決定する対話装置であって、
予め記憶されたシナリオに基づいた発話を決定する対話システムを第一の対話システムとよび、少なくともユーザの発話内容に基づいた発話を決定する対話システムを第二の対話システムとよぶとしたとき、
オープン発話を決定し、上記オープン発話後に上記オープン発話に対するユーザの発話に基づいて第二の対話システムにより発話を決定し、上記第二の対話システムにより決定した発話後に第一の対話システムにより発話を決定する発話決定部
を含む対話装置。 - 請求項1から3のいずれかに記載の対話方法の各ステップをコンピュータに実行させるためのプログラム。
- 請求項5に記載の対話装置としてコンピュータを機能させるためのプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016101222 | 2016-05-20 | ||
JP2016101222 | 2016-05-20 | ||
PCT/JP2017/018791 WO2017200076A1 (ja) | 2016-05-20 | 2017-05-19 | 対話方法、対話システム、対話装置、およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017200076A1 true JPWO2017200076A1 (ja) | 2018-12-13 |
JP6699010B2 JP6699010B2 (ja) | 2020-05-27 |
Family
ID=60325875
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018518375A Active JP6699010B2 (ja) | 2016-05-20 | 2017-05-19 | 対話方法、対話システム、対話装置、およびプログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6699010B2 (ja) |
WO (1) | WO2017200076A1 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11430440B2 (en) * | 2018-05-11 | 2022-08-30 | Ntt Docomo, Inc. | Dialog device |
CN109129512A (zh) * | 2018-09-30 | 2019-01-04 | 北京小谛机器人科技有限公司 | 聊天机器人的唤醒方法及装置 |
WO2020111351A1 (ko) * | 2018-11-30 | 2020-06-04 | 엘지전자 주식회사 | 차량 제어장치 및 차량 제어방법 |
JP7212888B2 (ja) * | 2019-05-20 | 2023-01-26 | 日本電信電話株式会社 | 自動対話装置、自動対話方法、およびプログラム |
JPWO2023281580A1 (ja) * | 2021-07-05 | 2023-01-12 | ||
CN115186147B (zh) * | 2022-05-31 | 2023-08-25 | 华院计算技术(上海)股份有限公司 | 对话内容的生成方法及装置、存储介质、终端 |
CN116524910B (zh) * | 2023-06-25 | 2023-09-08 | 安徽声讯信息技术有限公司 | 一种基于麦克风的文稿预制方法及*** |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002169590A (ja) * | 2000-12-01 | 2002-06-14 | Namco Ltd | 模擬会話システム、模擬会話方法、および情報記憶媒体 |
JP2004287016A (ja) * | 2003-03-20 | 2004-10-14 | Sony Corp | 音声対話装置及び方法並びにロボット装置 |
JP2015125198A (ja) * | 2013-12-25 | 2015-07-06 | Kddi株式会社 | 対話シナリオに対する動的対話ノードの挿入行動を制御する対話プログラム、サーバ及び方法 |
WO2015174172A1 (ja) * | 2014-05-13 | 2015-11-19 | シャープ株式会社 | 制御装置およびメッセージ出力制御システム |
-
2017
- 2017-05-19 JP JP2018518375A patent/JP6699010B2/ja active Active
- 2017-05-19 WO PCT/JP2017/018791 patent/WO2017200076A1/ja active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002169590A (ja) * | 2000-12-01 | 2002-06-14 | Namco Ltd | 模擬会話システム、模擬会話方法、および情報記憶媒体 |
JP2004287016A (ja) * | 2003-03-20 | 2004-10-14 | Sony Corp | 音声対話装置及び方法並びにロボット装置 |
JP2015125198A (ja) * | 2013-12-25 | 2015-07-06 | Kddi株式会社 | 対話シナリオに対する動的対話ノードの挿入行動を制御する対話プログラム、サーバ及び方法 |
WO2015174172A1 (ja) * | 2014-05-13 | 2015-11-19 | シャープ株式会社 | 制御装置およびメッセージ出力制御システム |
Also Published As
Publication number | Publication date |
---|---|
JP6699010B2 (ja) | 2020-05-27 |
WO2017200076A1 (ja) | 2017-11-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2017200072A1 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
US20220254343A1 (en) | System and method for intelligent initiation of a man-machine dialogue based on multi-modal sensory inputs | |
WO2017200076A1 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
US11468894B2 (en) | System and method for personalizing dialogue based on user's appearances | |
US11183187B2 (en) | Dialog method, dialog system, dialog apparatus and program that gives impression that dialog system understands content of dialog | |
WO2017200080A1 (ja) | 対話方法、対話装置、及びプログラム | |
WO2017200078A1 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
JP6970413B2 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
WO2018163647A1 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
JP6682104B2 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
JP6667855B2 (ja) | 取得方法、生成方法、それらのシステム、及びプログラム | |
JP6551793B2 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
WO2020070923A1 (ja) | 対話装置、その方法、およびプログラム | |
JP6601625B2 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
JP6610965B2 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
JPWO2017200077A1 (ja) | 対話方法、対話システム、対話装置、及びプログラム | |
JP6755509B2 (ja) | 対話方法、対話システム、対話シナリオ生成方法、対話シナリオ生成装置、及びプログラム | |
WO2021064947A1 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
WO2021064948A1 (ja) | 対話方法、対話システム、対話装置、およびプログラム | |
이용은 | The Influencing Factors of Trust in Human-like Agents |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180724 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20180724 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190903 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191016 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200324 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200401 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6699010 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |