JPWO2017200076A1 - 対話方法、対話システム、対話装置、およびプログラム - Google Patents

対話方法、対話システム、対話装置、およびプログラム Download PDF

Info

Publication number
JPWO2017200076A1
JPWO2017200076A1 JP2018518375A JP2018518375A JPWO2017200076A1 JP WO2017200076 A1 JPWO2017200076 A1 JP WO2017200076A1 JP 2018518375 A JP2018518375 A JP 2018518375A JP 2018518375 A JP2018518375 A JP 2018518375A JP WO2017200076 A1 JPWO2017200076 A1 JP WO2017200076A1
Authority
JP
Japan
Prior art keywords
utterance
user
dialogue
scenario
determined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018518375A
Other languages
English (en)
Other versions
JP6699010B2 (ja
Inventor
弘晃 杉山
弘晃 杉山
豊美 目黒
豊美 目黒
淳司 大和
淳司 大和
雄一郎 吉川
雄一郎 吉川
石黒 浩
浩 石黒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Osaka University NUC
Original Assignee
Nippon Telegraph and Telephone Corp
Osaka University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp, Osaka University NUC filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2017200076A1 publication Critical patent/JPWO2017200076A1/ja
Application granted granted Critical
Publication of JP6699010B2 publication Critical patent/JP6699010B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • G10L13/047Architecture of speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

応答感を向上し、かつ、対話を長く続ける。対話システム10は、ユーザの発話を受け付ける入力部1と、発話を提示する提示部5とを少なくとも含む。提示部5−1または提示部5−2は、オープン発話を提示する。入力部1は、オープン発話に対するユーザの発話を受け付ける。提示部5−1は、少なくともユーザの発話内容に基づいた発話を決定する雑談対話システム6がユーザの発話に基づいて決定した発話を提示する。提示部5−2は、予め記憶されたシナリオに基づいた発話を決定するシナリオ対話システム7が決定した発話を雑談対話システム6が決定した発話の後に提示する。

Description

この発明は、人とコミュニケーションを行うロボットなどに適用可能な、コンピュータが人間と自然言語を用いて対話を行う技術に関する。
近年、人とコミュニケーションを行うロボットの研究開発が進展しており、様々な現場で実用化されてきている。例えば、コミュニケーションセラピーの現場において、ロボットが孤独感を抱える人の話し相手となる利用形態がある。具体的には、老人介護施設においてロボットが入居者の傾聴役となることで、入居者の孤独感を癒す役割を担うことができると共に、ロボットとの会話している姿を見せ、入居者とその家族や介護士など周りの人々との会話のきっかけを作ることができる。また、例えば、コミュニケーション訓練の現場において、ロボットが練習相手となる利用形態がある。具体的には、外国語学習施設においてロボットが外国語学習者の練習相手となることで、外国語学習を効率的に進めることができる。また、例えば、情報提示システムとしての応用において、ロボット同士の対話を聞かせることを基本としながら、時折人に話しかけることで、退屈させずに人を対話に参加させ、人が受け入れやすい形で情報を提示することができる。具体的には、街中の待ち合わせ場所やバス停、駅のホームなどで人が時間を持て余している際や、自宅や教室などで対話に参加する余裕がある際に、ニュースや商品紹介、蘊蓄・知識紹介、教育(例えば、子供の保育・教育、大人への一般教養教授、モラル啓発など)など、効率的な情報提示が期待できる。さらに、例えば、情報収集システムとしての応用において、ロボットが人に話しかけながら情報を収集する利用形態がある。ロボットとのコミュニケーションにより対話感を保持できるため、人に聴取されているという圧迫感を与えずに情報収集することができる。具体的には、個人情報調査や市場調査、商品評価、推薦商品のための趣向調査などに応用することが想定されている。このように人とロボットのコミュニケーションは様々な応用が想定されており、ユーザとより自然に対話を行うロボットの実現が期待される。また、スマートフォンの普及により、LINE(登録商標)のように、複数ユーザでほぼリアルタイムにチャットを行うことにより、人との会話を楽しむサービスも実施されている。このチャットサービスにロボットとの会話の技術を適用すれば、チャット相手がいなくても、ユーザとより自然に対話を行うチャットサービスの実現が可能となる。
本明細書では、これらのサービスで用いられるロボットやチャット相手などのユーザとの対話相手となるハードウェアやユーザとの対話相手となるハードウェアとしてコンピュータを機能させるためのコンピュータソフトウェアなどを総称してエージェントと呼ぶこととする。エージェントは、ユーザとの対話相手となるものであるため、ロボットやチャット相手などのように擬人化されていたり、人格化されていたり、性格や個性を有していたりするものであってもよい。
これらのサービスの実現のキーとなるのは、ハードウェアやコンピュータソフトウェアにより実現されるエージェントが人間と自然に対話を行うことができる技術である。
上記のエージェントの一例として、あらかじめ定められたシナリオに沿って特定の話題についてユーザと対話を行うシナリオ対話システムがある。シナリオ対話システムでは、シナリオに沿って対話が展開する限り対話を続けることが可能である。例えば、非特許文献1に記載された対話システムは、ユーザと複数のエージェント間で、エージェントによる割り込みやエージェント同士のやり取りを含めながら対話を行うシステムである。例えば、エージェントは、ユーザに対してシナリオに用意された質問を発話し、質問に対するユーザの回答の発話がシナリオに用意された選択肢に対応する場合にその選択肢に対応する発話を行うように機能する。すなわち、シナリオ対話システムは、システムに予め記憶されたシナリオに基づいた発話をエージェントが行う対話システムである。この対話システムでは、エージェントがユーザに問いかけ、ユーザからの返答を受けた際に、ユーザの発話内容に関わらず「そっか」といった相槌で流したり、エージェントの割り込みで話題を変えたりすることで、ユーザの発話が本来の話題から外れた場合であってもストーリーの破綻をユーザに感じさせないように応答することが可能である。
また、上記のエージェントの一例として、ユーザの発話内容に沿った発話をエージェントが行うことにより、ユーザとエージェントとが自然な対話を行う雑談対話システムがある。例えば、非特許文献2に記載された対話システムは、ユーザとエージェントとの間で行われる複数ターンの対話の中で文脈に特有のものをより重視しながら、ユーザまたはエージェントの発話に含まれる単語をトリガーとして、あらかじめ記述しておいたルールに従ってシステムが発話することで、ユーザとシステムとの間で雑談対話を実現するシステムである。雑談対話システムが用いるルールは、あらかじめ記述したものだけでなく、ユーザの発話内容に基づいて自動的に生成したものであってもよいし、ユーザまたはエージェントによる直前の発話またはその近傍に発話された発話に基づいて自動的に生成したものであってもよいし、ユーザまたはエージェントによる直前の発話またはその近傍に発話された発話を少なくとも含む発話に基づいて自動的に生成したものであってもよい。非特許文献2には、ユーザの発話に含まれる単語と共起関係や係り受け関係にある単語に基づいて、自動的にルールを生成する技術が記載されている。また、例えば、非特許文献3に記載された対話システムは、人手で記述したルールと統計的発話生成手法で記述したルールを融合することで、ルール生成のコストを低減したシステムである。雑談対話システムは、シナリオ対話システムとは異なり、予め用意されたシナリオに沿った発話をエージェントが行うものではないため、ユーザの発話によっては、エージェントの発話がユーザの発話に対応しないものとなってしまうという事態は生じずに、少なくともユーザの発話内容、もしくはユーザまたはエージェントによる直前の発話またはその近傍に発話された発話、もしくはユーザまたはエージェントによる直前の発話またはその近傍に発話された発話を少なくとも含む発話に基づいた発話をエージェントが行うことが可能である。すなわち、雑談対話システムは、少なくともユーザの発話内容、もしくはユーザまたはエージェントによる直前の発話またはその近傍に発話された発話、もしくはユーザまたはエージェントによる直前の発話またはその近傍に発話された発話を少なくとも含む発話に基づいた発話をエージェントが行う対話システムである。これらの雑談対話システムでは、ユーザの発話に対して明示的に応答することが可能である。
有本庸浩,吉川雄一郎,石黒浩,"複数体のロボットによる音声認識なし対話の印象評価",日本ロボット学会学術講演会,2016年 杉山弘晃,目黒豊美,東中竜一郎,南泰浩,"任意の話題を持つユーザ発話に対する係り受けと用例を利用した応答文の生成",人工知能学会論文誌,vol.30(1),pp. 183-194,2015年 目黒豊美,杉山弘晃,東中竜一郎,南泰浩,"ルールベース発話生成と統計的発話生成の融合に基づく対話システムの構築",人工知能学会全国大会論文集,vol. 28,pp. 1-4,2014年
従来の雑談対話システムでは、基本的に一問一答であるため一貫したストーリーで対話を続けることができない。従来のシナリオ対話システムでは、ユーザの発話がシナリオで想定した範囲外であると応答できない場合がある。また、非特許文献1の対話システムでは、ユーザは自分の発話が流されてばかりいると感じてしまうおそれがある。
この発明の目的は、上述のような点に鑑みて、ユーザの発話に対する応答感を向上し、かつ、対話を長く続けることができる対話技術を提供することである。
上記の課題を解決するために、この発明の第一の態様の対話方法は、予め記憶されたシナリオに基づいた発話を決定する対話システムを第一の対話システムとよび、少なくともユーザの発話内容に基づいた発話を決定する対話システムを第二の対話システムとよぶとしたとき、提示部が、オープン発話を提示する第一提示ステップと、入力部が、オープン発話に対するユーザの発話を受け付ける発話受付ステップと、提示部が、ユーザの発話に基づいて第二の対話システムが決定した発話を提示する第二提示ステップと、提示部が、第一の対話システムが決定した発話を第二提示ステップの後に提示する第三提示ステップと、を含む。
この発明の第二の態様の対話システムは、予め記憶されたシナリオに基づいた発話を決定する対話システムを第一の対話システムとよび、少なくともユーザの発話内容に基づいた発話を決定する対話システムを第二の対話システムとよぶとしたとき、オープン発話を決定し、オープン発話後にオープン発話に対するユーザの発話に基づいて第二の対話システムにより発話を決定し、第二の対話システムにより決定した発話後に第一の対話システムにより発話を決定する発話決定部と、オープン発話に対するユーザの発話を受け付ける入力部と、発話決定部が決定したオープン発話を提示し、発話決定部が第二の対話システムにより決定した発話をユーザの発話の後に提示し、発話決定部が第一の対話システムにより決定した発話を第二の対話システムが決定した発話の後に提示する提示部と、を含む。
この発明の第三の態様の対話装置は、ユーザの発話を受け付ける入力部と、発話を提示する提示部とを少なくとも含む対話システムが提示する発話を決定する対話装置であって、予め記憶されたシナリオに基づいた発話を決定する対話システムを第一の対話システムとよび、少なくともユーザの発話内容に基づいた発話を決定する対話システムを第二の対話システムとよぶとしたとき、オープン発話を決定し、オープン発話後にオープン発話に対するユーザの発話に基づいて第二の対話システムにより発話を決定し、第二の対話システムにより決定した発話後に第一の対話システムにより発話を決定する発話決定部を含む。
この発明によれば、ユーザの発話に対しては少なくともユーザの発話内容に基づいた発話を行う対話システムにより適切な応答ができ、その後は予め記憶されたシナリオに基づいた発話を行う対話システムが決定した発話をできるため、ユーザに対してストーリーを感じさせつつ高い応答感を与えることができ、かつ、ユーザとの間で対話を長く続けることが可能な対話システム、対話装置を実現することが可能となる。
図1は、第一実施形態の人型ロボットによる対話システムの機能構成を例示する図である。 図2は、第一実施形態の対話方法の処理手続きを例示する図である。 図3は、第二実施形態の人型ロボットによる対話システムの機能構成を例示する図である。 図4は、第二実施形態の対話方法の処理手続きを例示する図である。 図5は、第一実施形態のグループチャットによる対話システムの機能構成を例示する図である。
以下、この発明の実施の形態について詳細に説明する。なお、図面中において同じ機能を有する構成部には同じ番号を付し、重複説明を省略する。
<第一実施形態>
第一実施形態の対話システムは、複数台の人型ロボットが協調してユーザとの対話を行うシステムである。すなわち、第一実施形態の対話システムは、エージェントが人型ロボットである場合の一例である。対話システム10は、図1に示すように、入力部1、音声認識部2、発話決定部3、音声合成部4、および提示部5を備える。この対話システム10が後述する各ステップの処理を行うことにより第一実施形態の対話方法が実現される。なお、図1に示すように、対話システム10の音声認識部2、発話決定部3、音声合成部4による部分を第一実施形態の対話装置11とする。発話決定部3は、外部に存在する雑談対話システム6およびシナリオ対話システム7と通信可能なインターフェースを備える。雑談対話システム6およびシナリオ対話システム7は同様の機能を持つ処理部として対話装置11内に構成しても構わない。なお、雑談対話システム6は少なくともユーザの発話内容に基づいた発話をエージェントが行う対話システムの一例であり、シナリオ対話システム7は予め記憶されたシナリオに基づいた発話をエージェントが行う対話システムの一例である。
本形態の対話システム10は、応答感を向上するために、オープン発話に対するユーザの発話に基づいて雑談対話システム6が決定した発話を提示し、続いて、シナリオ対話システム7が決定した発話を雑談対話システム6が決定した発話の後に提示する。雑談対話システム6は少なくともユーザの発話内容に基づいて発話を決定するため、ユーザの発話に対して明示的に返答することができる。そのため、例えば「そっか」など単に相槌を打つ場合と比較して、自分の発言が流されてばかりいるような感覚をユーザへ与えてしまうことを回避することができる。これにより、ユーザに対して対話システム10が真面目に対応してくれている印象を与えることができ、その後に続くシナリオ対話においても長く対話を続けることが可能となる。
対話装置11は、例えば、中央演算処理装置(CPU: Central Processing Unit)、主記憶装置(RAM: Random Access Memory)などを有する公知又は専用のコンピュータに特別なプログラムが読み込まれて構成された特別な装置である。対話装置11は、例えば、中央演算処理装置の制御のもとで各処理を実行する。対話装置11に入力されたデータや各処理で得られたデータは、例えば、主記憶装置に格納され、主記憶装置に格納されたデータは必要に応じて読み出されて他の処理に利用される。また、対話装置11の各処理部の少なくとも一部が集積回路等のハードウェアによって構成されていてもよい。
入力部1は、ユーザの発話を対話システム10が取得するためのインターフェースである。言い換えれば、入力部1は、ユーザが発話を対話システム10へ入力するためのインターフェースである。例えば、入力部1はユーザの発話音声を収音して音声信号とするマイクロホンである。入力部1は、収音したユーザの発話音声の音声信号を、音声認識部2へ入力する。
音声認識部2は、入力部1が収音したユーザの発話音声の音声信号をユーザの発話内容を表すテキストに変換する。音声認識部2は、ユーザの発話内容を表すテキストを、発話決定部3へ入力する。音声認識の方法は既存のいかなる音声認識技術を用いてもよく、利用環境等に合わせて最適なものを適宜選択すればよい。
発話決定部3は、雑談対話システム6またはシナリオ対話システム7と通信し、入力されたテキストに基づいてユーザの発話に対する対話システム10からの発話内容を表すテキストを決定する。発話決定部3は、決定した発話内容を表すテキストを、音声合成部4へ入力する。
音声合成部4は、発話決定部3が決定した発話内容を表すテキストを、発話内容を表す音声信号に変換する。音声合成部4は、発話内容を表す音声信号を、提示部5へ入力する。音声合成の方法は既存のいかなる音声合成技術を用いてもよく、利用環境等に合わせて最適なものを適宜選択すればよい。
提示部5は、発話決定部3が決定した発話内容をユーザへ提示するためのインターフェースである。例えば、提示部5は、人間の形を模して製作された人型ロボットである。この人型ロボットは、発話決定部3が決定した発話内容を表すテキストを音声合成部4が音声信号に変換した発話内容を表す音声信号を、例えば頭部に搭載したスピーカから発音する、すなわち、発話を提示する。提示部5を人型ロボットとした場合には、対話に参加する人格ごとに一台の人型ロボットを用意する。以下では、二人の人格が対話に参加する例として、二台の人型ロボット5−1および5−2が存在するものとする。
入力部1は提示部5と一体として構成してもよい。例えば、提示部5を人型ロボットとした場合、人型ロボットの頭部にマイクロホンを搭載し、入力部1として利用することも可能である。
以下、図2を参照して、第一実施形態の対話方法の処理手続きを説明する。
ステップS11において、人型ロボット5−1または5−2は、シナリオ対話システム7または雑談対話システム6が、選択したオープン発話の内容を表す音声をスピーカから出力する。オープン発話とは、相手が自由に応答できる発話であり、少なくともオープン質問とオープンコメントの何れかを含む発話である。オープン質問とは、いわゆる5W1H(いつ(When)、どこで(Where)、だれが(Who)、なにを(What)、なぜ(Why)、どのように(How))のように、相手が自由に回答できる質問である。オープン質問の逆に、例えば「Yes / No」や「A or B or C」のように回答範囲が限定される質問は、クローズ質問と呼ばれる。オープンコメントとは、話題に対するとりとめのない感想など、特に答えを求めない発言であり、すなわち相手が自由に発言できる発話である。オープン発話の内容を表すテキストは発話決定部3の要求に応じてシナリオ対話システム7が選択したシナリオに沿って決定される。シナリオ対話システム7は、あらかじめ用意された複数のシナリオからランダムにシナリオを選択してもよいし、直前までの対話内容に基づいてあらかじめ定めたルールに従ってシナリオを選択してもよい。直前までの対話内容に基づいてシナリオを選択する方法としては、例えば、直前の5発話程度を含む対話について、各発話に含まれる単語や各発話を構成する焦点語と各シナリオに含まれる単語や焦点語との単語間距離が所定の距離より近いシナリオを選択する方法が挙げられる。
ステップS12において、マイクロホン1は、オープン発話に対するユーザの発話を受け付ける。音声認識部2は、マイクロホン1が収音したユーザの発話音声の音声信号を音声認識し、音声認識結果として得られたテキストをユーザの発話内容を表すテキストとして発話決定部3へ入力する。
ステップS13において、人型ロボット5−1は、ユーザの発話内容を表すテキストに基づいて雑談対話システム6が決定した雑談発話の内容を表す音声をスピーカから出力する。雑談発話の内容を表すテキストは、発話決定部3がユーザの発話の音声認識結果であるユーザの発話内容を表すテキストに基づいて、雑談対話システム6を用いて決定する。雑談発話の内容を表す音声を出力する人型ロボットは、オープン発話の内容を表す音声を出力した人型ロボットであってもよいし、オープン発話の内容を表す音声を出力した人型ロボットとは異なる人型ロボットであってもよい。
ステップS14において、人型ロボット5−2は、シナリオ対話システム7が決定したシナリオ発話の内容を表す音声をスピーカから出力する。ステップS14は、ステップS13の後に行われる。すなわち、対話システムは、ユーザの発話に基づいて雑談対話システム6が決定した雑談発話の内容を表す音声をスピーカから出力した後に、シナリオ対話システム7が決定したシナリオ発話の内容を表す音声をスピーカから出力する。シナリオ発話の内容を表すテキストは、発話決定部3の要求に応じてシナリオ対話システム7が選択したシナリオに沿って、発話決定部3が決定する。シナリオ発話の内容を表す音声を出力する人型ロボットは、オープン発話の内容を表す音声を出力した人型ロボットであってもよいし、オープン発話の内容を表す音声を出力した人型ロボットとは異なる人型ロボットであってもよい。以降は、例えば、シナリオに沿った対話がユーザと対話システムとの間で実行されるように、対話システムは、シナリオ対話システム7が決定したシナリオ発話の発話内容を表す音声をスピーカから出力する。以降の発話を行う人型ロボットは、何れか1つの人型ロボットであっても複数の人型ロボットであってもよい。
以下、第一実施形態の対話内容の具体例を示す。ここで、Rは人型ロボットを表し、Hはユーザを表す。Rの後の括弧内における数字は人型ロボットの識別子である。「R(1→H)」は人型ロボット5−1がユーザへ話しかける意図で発話していることを表し、「R(1→2)」は人型ロボット5−1が人型ロボット5−2へ話しかける意図で発話していることを表す。なお、人型ロボットが誰に話かける意図であるかは、例えば、人型ロボットの頭部や視線の動きにより表出するようにしてもよいが、表出しないでもよい。
R(1→H):「食べ物だったら何が好き?」(※2)
H:「ラーメンが好き!」
R(1→H):「豚骨がいいよね。」(※1)
R(2→1):「僕たちロボットだから、何も食べられないんだけどね。」(※2)
R(1→2):「それはしょうがないよ。」(※2)
R(2→1):「そっか。」(※2)
ここで、※1は雑談対話システム6により決定された発話内容である。※2はシナリオ対話システム7により決定された発話内容である。なお、※1以降の人型ロボットの発話は、発話する人型ロボットが逆でもよいし、話しかける相手が人間でも他の人型ロボットでも人間と他の人型ロボットの両方でもよい。
上記のように構成することにより、本形態の対話技術によれば、オープン発話に対するユーザの発話がシナリオの想定外であっても、雑談対話システムによりユーザの発話にふさわしい応答をすることができるため、ユーザが感じる応答感が向上する。これにより、ユーザはシステムとの対話を継続する意欲をかき立てられ、対話を長く続けることができるようになる。
<第一実施形態の変形例1>
第一実施形態では、ステップS11においてシナリオ対話システム7が選択したオープン発話をスピーカから出力する例を説明したが、ステップS11においてスピーカから出力するオープン発話はどのように生成されたものでもよい。
例えば、ステップS11の前に行われたユーザの発話を入力部1が収音して音声信号とし、音声認識部2がユーザの発話内容を表すテキストを得て、発話決定部3がユーザの発話内容を表すテキストに少なくとも基づいて雑談対話システム6によってオープン発話の発話内容を表すテキストを決定し、雑談対話システム6が決定したオープン発話の発話内容を表す音声信号をスピーカから出力するようにしてもよい。
<第一実施形態の変形例2>
第一実施形態では、ステップS13においてユーザの発話に基づいて雑談対話システム6が決定した雑談発話の内容を表す音声をスピーカから出力する例、すなわち、ステップS13において雑談対話システム6が決定した1つの雑談発話の内容を表す音声をスピーカから出力する例を説明したが、ステップS13において雑談対話システム6が決定した複数の雑談発話の内容を表す音声をスピーカから出力してもよい。
例えば、ステップS13において、まず、人型ロボット5−1が、ユーザの発話に基づいて雑談対話システム6が決定した雑談発話の内容を表す音声をスピーカから出力し、次に、人型ロボット5−2が、スピーカから出力した人型ロボット5−1の発話に基づいて雑談対話システム6が決定した雑談発話の内容を表す音声をスピーカから出力するようにしてもよい。
<第一実施形態の変形例3>
第一実施形態の対話システム10は、複数台の人型ロボットが協調してユーザとの対話を行うシステムであったが、ユーザとの対話の全てまたは一部を1台の人型ロボットが行うシステムであってもよい。例えば、ステップS11のオープン発話、ステップS13のユーザの発話に基づいて雑談対話システム6が決定した雑談発話、およびステップS14のシナリオ対話システム7が決定したシナリオ発話を同じ1台の人型ロボットが行うようにしてもよい。この場合は、例えば、ステップS14以降のユーザとの対話は、複数台の人型ロボットで協調して行ってもよいし、ステップS14までと同じ1台の人型ロボットが行ってもよい。
<第二実施形態>
第二実施形態では、ユーザの話題への参加感を向上するために、シナリオ対話から雑談対話に移行し、その後、雑談対話から再度シナリオ対話へ移行する。シナリオ対話の間に雑談対話を挿入することで、対話の流れが自然になり、話題の決定に自分も参加している感覚をユーザへ与えることができる。これにより、ユーザはその後に続くシナリオ対話においても長く対話を続けることが可能となる。
第二実施形態の対話システム12は、図3に示すように、入力部1、音声認識部2、発話決定部3、音声合成部4、および提示部5を、第一実施形態と同様に備え、さらに対話制御部8を備える。この対話システム12が後述する各ステップの処理を行うことにより第二実施形態の対話方法が実現される。なお、図3に示すように、対話システム12の音声認識部2、発話決定部3、音声合成部4、対話制御部8による部分を第二実施形態の対話装置13とする。対話制御部8は、対話システム12が備える他の処理部を制御して、ユーザの発話の受付とユーザへの発話の提示とをそれぞれ少なくとも一回以上実行する対話である対話フローを実行する。
以下、図4を参照して、第二実施形態の対話方法の処理手続きを説明する。
ステップS21において、人型ロボット5−1または5−2は、シナリオ対話システム7が任意に選択した第一シナリオに含まれる第一シナリオ発話の内容を表す音声をスピーカから出力する。第一シナリオの選択は発話決定部3の要求を契機として行われる。シナリオ対話システム7は、あらかじめ用意された複数のシナリオからランダムに第一シナリオを選択してもよいし、以前の対話内容に基づいてあらかじめ定めたルールに従って第一シナリオを選択してもよい。シナリオ対話システム7が第一シナリオを選択する方法は、第一実施形態のステップS11で説明した方法と同様である。
ステップS22において、マイクロホン1は、第一シナリオ発話に対してユーザが発した第一ユーザ発話を受け付ける。音声認識部2は、マイクロホン1が収音したユーザの発話の音声信号を音声認識し、音声認識結果として得られたテキストを第一ユーザ発話の内容を表すテキストとして発話決定部3へ入力する。
ステップS23において、対話システム12は、シナリオ対話から雑談対話へ切り替える条件を満足したか否かを判定する。条件を満足したと判定した場合には、ステップS24へ処理を進める。条件を満足していないと判定した場合には、ステップS21へ処理を戻し、ステップS21−S22の処理を再度実行する。
シナリオ対話から雑談対話へ切り替える条件は、例えば、A1.第一シナリオに沿った対話がすべて完了した場合、A2.第一シナリオの進行が失敗した場合などが挙げられる。シナリオの進行が失敗した場合とは、例えば、A2−1.ユーザへ向けて発話した後のユーザの発話がシナリオ対話システムの想定範囲に含まれていない場合、A2−2.進行中のシナリオに対するユーザの振る舞いからそのシナリオについて話したくない意思やユーザの対話意欲が減退していることが認識された場合などが挙げられる。また、A2−1の場合とA2−2の場合とを組み合わせ、ユーザへ向けて発話した後のユーザの反応が芳しくない場合も含まれる。ユーザの発話がシナリオ対話システムの想定範囲に含まれていない場合とは、例えば、ユーザの発話と、シナリオ対話システムが予め記憶されたシナリオに基づいてユーザの発話に対して決定した発話とが整合しない場合である。ユーザの振る舞いには、非言語シグナル、パラ言語シグナル(間の情報も含む)なども含まれる。ユーザの反応が芳しくない場合には、ユーザの振る舞いから話したくない意思が認識された場合や、ユーザの対話意欲の減退が認識された場合が含まれる。話したくない意思の認識や対話意欲の減退は、例えば、ユーザがあらかじめ定めた特定の語句(フレーズ)(例えば、「この話、さっきもしたよ。」など)を発したら、もうその話題について話したくない意思を表していると判断すればよい。
ステップS24において、人型ロボット5−1または5−2は、第一ユーザ発話の内容を表すテキストに基づいて雑談対話システム6が決定した雑談発話の内容を表す音声をスピーカから出力する。雑談発話の内容を表す音声を出力する人型ロボットは、第一シナリオに基づく一つ以上の発話のうち最後の発話の内容を表す音声を出力した人型ロボットであってもよいし、その最後の発話の内容を表す音声を出力した人型ロボットとは異なる人型ロボットであってもよい。
雑談発話の内容を表すテキストは、発話決定部3が第一シナリオによる対話中の人型ロボットとユーザとの発話の系列の音声認識結果である発話系列の内容を表すテキストに基づいて、雑談対話システム6を用いて決定したものである。雑談対話システム6へ入力する発話系列の範囲は、直前の発話に限定してもよいし、第一シナリオの一部または全部でもよいし、第一シナリオの前に行われた雑談対話またはシナリオ対話すべてを含めてもよい。雑談対話へ切り替える際の最初の発話をシナリオごとに事前に設定しておいてもよい。例えば、食べ物の話をするシナリオの後に「食べること以外で、何が好き?」などの質問を用意することなどが考えられる。
ステップS25において、マイクロホン1は、雑談発話に対してユーザが発した第二ユーザ発話を受け付ける。音声認識部2は、マイクロホン1が収音した第二ユーザ発話の音声信号を音声認識し、音声認識結果として得られたテキストを第二ユーザ発話の内容を表すテキストとして発話決定部3へ入力する。
ステップS26において、対話システム12は、雑談対話からシナリオ対話へ切り替える条件を満足したか否かを判定する。条件を満足したと判定した場合には、ステップS27へ処理を進める。条件を満足していないと判定した場合には、ステップS24へ処理を戻し、ステップS24−S25の処理を再度実行する。
雑談対話からシナリオ対話へ切り替える条件は、例えば、B1.雑談対話の継続が困難になった場合、B2.雑談対話を通じて次のシナリオを十分な信頼度で選択できる状況となった場合などが挙げられる。雑談対話の継続が困難な場合とは、例えば、B1−1.ユーザへ向けて発話した後のユーザの発話が雑談対話システムの想定範囲に含まれていない場合、B1−2.進行中の雑談対話に対するユーザの振る舞いからそのシナリオについて話したくない意思やユーザの対話意欲が減退していることが認識された場合、B1−3.次のシナリオを十分な信頼度で選択できる状況とならず所定の回数の雑談発話を繰り返した場合などが挙げられる。また、B1−1の場合とB1−2の場合とを組み合わせ、ユーザへ向けて発話した後のユーザの反応が芳しくない場合も含まれる。B1−3の場合は、B1−1の場合および/またはB1−2の場合と組み合わせることができ、例えば、ユーザの発話が雑談対話システムの想定範囲に含まれない場合および/またはユーザの振る舞いから話したくない意思が認識された場合が所定の回数繰り返し発生した場合に、雑談対話の継続が困難と判断するように構成してもよい。ユーザの発話が雑談対話システムの想定範囲に含まれていない場合とは、例えば、ユーザの発話と、雑談対話システムが少なくともユーザの発話に基づいて決定した発話とが整合しない場合である。ユーザの振る舞いには、非言語シグナル、パラ言語シグナル(間の情報も含む)なども含まれる。ユーザの反応が芳しくない場合には、ユーザの振る舞いから話したくない意思が認識された場合や、ユーザの対話意欲の減退が認識された場合が含まれる。話したくない意思の認識や対話意欲の減退は、例えば、ユーザがあらかじめ定めた特定の語句(フレーズ)(例えば、「この話、さっきもしたよ。」など)を発した場合などが挙げられる。
シナリオ対話へ切り替える際には、直前のユーザの発話を「そっか」といった相槌で受けるとともに、最初の発話の直前に間を挿入し、「ところでさ」「そうそう」「ねぇ」など、話題を変えようとしていることを表す発話を、雑談対話の最後に発話した人型ロボットと異なる人型ロボットに発話させるとよい。これにより、話題の不連続性により生じる違和感を軽減することができる。このとき、次のシナリオを選択した際の信頼度に応じて、発話する内容を変更してもよい。ここで、選択の信頼度とは、雑談対話の内容と選択したシナリオの類似度の高さを表す指標である。例えば、選択の信頼度が比較的高い場合には「そうそう、・・・」などと短い発話を挿入することとし、選択の信頼度が比較的低い場合には「ところでさ、全然関係ないかもしれないけど・・・」などと話題が変わることを明示的に表す内容を発話することが考えられる。選択の信頼度が低い場合の具体例としては、例えば、雑談対話で「ラーメンを食べた」ことを発話した後に、シナリオ対話で「レストランの経営」を話題にするように、話題語・話題述語項間の類似度が低い場合が挙げられる。また、例えば、雑談対話で「スポーツが好きではない」ことを発話した後に、シナリオ対話で「スキーをした」ことを話題にするように、話題の類似度は高いものの、ユーザがその話題に否定的である場合が挙げられる。さらに、例えば、雑談対話で「ドラッグ」についての発話があり、マウスのドラッグの話題か薬のドラッグの話題か判別できない場合のように、話題語が多義語であり、いずれの意味で発話されたのかを判別できない場合が挙げられる。
ステップS27において、人型ロボット5−1または5−2は、シナリオ対話システム7が選択した第二シナリオに含まれる第二シナリオ発話の内容を表す音声をスピーカから出力する。第二シナリオの選択は発話決定部3の要求を契機として行われる。ステップS23において第一シナリオが完了する前にシナリオ対話から雑談対話への切り替えが行われていた場合には、第一シナリオの残りの部分を第二シナリオとしてもよい。以降、第二シナリオに沿った対話がユーザと対話装置との間で実行される。
シナリオ対話システム7は、ステップS24およびS25で行われた雑談対話の内容に基づいてあらかじめ定めたルールに従って第二シナリオを選択する。雑談対話中の発話にはユーザが興味を抱き得る話題を表す語句が含まれていると考えられるため、これらを手掛かりとすることで適切な話題に関するシナリオを第二シナリオとして選択することができる。例えば、各シナリオに話題を表すキーワードを設定しておき、雑談対話中の人型ロボットの発話およびユーザの発話のいずれかまたは両方とそのキーワードとの類似度に従ってシナリオの選択を行う。また、例えば、ユーザの発話に対して雑談対話システム6が生成した文がいずれかのシナリオの先頭文に類似している場合はそのシナリオを選択する。
雑談対話中の発話を手掛かりとした選択が行えず、対話の継続が困難と判定した場合、あらかじめ用意された複数のシナリオの中からランダムに第二シナリオを選択する。この場合、事前にシナリオを準備する際にシナリオごとに選択確率を設定してもよい。すなわち、必ずしも均等なランダム選択をしなくともよい。また、これまでの観測情報から算出されている類似度に基づいて選択確率を重み付けしてもよい。
第二実施形態の対話方法における各ステップは対話制御部8の制御により実行される。対話制御部8は、シナリオ対話システム7が決定した第一シナリオに基づいて第一シナリオ発話の内容を提示するステップS21と第一シナリオ発話に対してユーザが発した第一ユーザ発話を受け付けるステップS22とをそれぞれ一回以上実行する第一対話フローと、雑談対話システム6がユーザの発話に基づいて決定した雑談発話の内容を提示するステップS24と雑談発話に対してユーザが発した第二ユーザ発話を受け付けるステップS25とをそれぞれ一回以上実行する第二対話フローとを実行する制御を行うことで、第二実施形態の対話方法を実現する。
以下、第二実施形態の対話内容の具体例を示す。ここで、Rは人型ロボットを表し、Hはユーザを表す。Rの後の括弧内における数字は人型ロボットの識別子である。第一実施形態と同様に、人型ロボットが誰に話かける意図であるかは、例えば、人型ロボットの頭部や視線の動きにより表出するようにしてもよいが、表出しなくてもよい。
R(1→2):「食べ物だったら何が好き?」(※1:シナリオ対話システム7が選択した第一シナリオに基づいて決定した発話内容である。)
R(2→1):「お寿司が好き。」(※1:シナリオ対話システム7が選択した第一シナリオに基づいて決定した発話内容である。)
H:「この話、さっきもしたよ。」(※「A2−2.進行中のシナリオに対するユーザの振る舞いからそのシナリオについて話したくない意思が認識された場合」の具体例である。)
R(1→H):「食べること以外で、何が好き?」(※1:以前の対話内容である「食べ物」に基づいてシナリオ対話システム7が選択した第一シナリオに含まれる発話の具体例である。)
H:「読書かな。」
R(1→H):「好きな本のジャンルは何?」(※2:ユーザ発話の「読書」に基づいて雑談対話システム6が決定した発話の具体例である。)
H:「スポーツ漫画が好きだよ」
R(2→H):「スポーツはよくやるの?」(※2:雑談対話を複数回繰り返す具体例である。ここではユーザ発話の「スポーツ」に基づいて雑談対話システム6が発話内容を決定している。)
H:「スポーツはあんまり好きじゃないな」
R(2→H):「そっか」(※3:「B1−2.進行中の雑談対話に対するユーザの振る舞いからそのシナリオについて話したくない意思が認識された場合」に雑談対話の継続が困難と判断する場合の具体例である。ユーザが「あんまり好きじゃない」と話題を否定したため、雑談対話の継続が困難と判断している。ここでは、まず直前のユーザ発話を相槌で受けている。)
R(1→2):「そういえば,ぼくはこの前スキーをしてきたよ」(※3:最初に、話題を変えようとしていることを表す「そういえば」を発話し、続いて、雑談対話の内容であった「スポーツ」に基づいてシナリオ対話システム7が選択した第二シナリオに含まれる発話を行っている。)
R(2→1):「その体型でスキーは難しいんじゃない?」(※3:雑談対話の内容であった「スポーツ」に基づいてシナリオ対話システム7が選択した第二シナリオに含まれる発話の具体例である。)
上記のように構成することにより、本形態の対話技術によれば、あるシナリオ対話が終了した後、雑談対話の内容に従って次のシナリオ対話の話題が決定されるため、ユーザが感じる対話への参加感が向上する。これにより、ユーザは対話システムとの対話を継続する意欲をかき立てられ、対話を長く続けることができるようになる。
<変形例>
上述した実施形態では、エージェントとしてロボットを用いて音声による対話を行う例を説明したが、上述した実施形態のロボットは身体等を有する人型ロボットであっても、身体等を有さないロボットであってもよい。また、この発明の対話技術はこれらに限定されず、人型ロボットのように身体等の実体がなく、発声機構を備えないエージェントを用いて対話を行う形態とすることも可能である。そのような形態としては、例えば、コンピュータの画面上に表示されたエージェントを用いて対話を行う形態が挙げられる。より具体的には、「LINE」(登録商標)や「2ちゃんねる」(登録商標)のような、複数アカウントがテキストメッセージにより対話を行うグループチャットにおいて、ユーザのアカウントと対話装置のアカウントとが対話を行う形態に適用することも可能である。この形態では、エージェントを表示する画面を有するコンピュータは人の近傍にある必要があるが、当該コンピュータと対話装置とはインターネットなどのネットワークを介して接続されていてもよい。つまり、本対話システムは、人とロボットなどの話者同士が実際に向かい合って話す対話だけではなく、話者同士がネットワークを介してコミュニケーションを行う会話にも適用可能である。
変形例の対話システム20は、図5に示すように、入力部1、発話決定部3、および提示部5を備える。図5の例では、変形例の対話システム20は1台の対話装置21からなり、変形例の対話装置21は、入力部1、発話決定部3、および提示部5を備える。発話決定部3は、外部に存在する雑談対話システム6およびシナリオ対話システム7と通信可能なインターフェースを備える。雑談対話システム6およびシナリオ対話システム7は同様の機能を持つ処理部として対話装置内に構成しても構わない。
変形例の対話装置は、例えば、スマートフォンやタブレットのようなモバイル端末、もしくはデスクトップ型やラップトップ型のパーソナルコンピュータなどの情報処理装置である。以下、対話装置がスマートフォンであるものとして説明する。提示部5はスマートフォンが備える液晶ディスプレイである。この液晶ディスプレイにはチャットアプリケーションのウィンドウが表示され、ウィンドウ内にはグループチャットの対話内容が時系列に表示される。グループチャットとは、チャットにおいて複数のアカウントが互いにテキストメッセージを投稿し合い対話を展開する機能である。このグループチャットには、対話装置が制御する仮想的な人格に対応する複数の仮想アカウントと、ユーザのアカウントとが参加しているものとする。すなわち、本変形例は、エージェントが、対話装置であるスマートフォンの液晶ディスプレイに表示された仮想アカウントである場合の一例である。ユーザはソフトウェアキーボードを用いて入力部1へ発話内容を入力し、自らのアカウントを通じてグループチャットへ投稿することができる。発話決定部3はユーザのアカウントからの投稿を雑談対話システム6またはシナリオ対話システム7へ入力し、各対話システムから得た発話内容を、各仮想アカウントを通じてグループチャットへ投稿する。なお、スマートフォンに搭載されたマイクロホンと音声認識機能を用い、ユーザが発声により入力部1へ発話内容を入力する構成としてもよい。また、スマートフォンに搭載されたスピーカと音声合成機能を用い、各対話システムから得た発話内容を、各仮想アカウントに対応する音声でスピーカから出力する構成としてもよい。
なお、エージェントの発話が提示部5(ディスプレイ)に同時に表示されると、対話が活発である、あるいは盛り上がっている、と好意的に感じられる可能性がある一方、ユーザが一度に読み切れないほどの量のテキストが提示されると、ユーザが対話を継続しにくく感じる可能性があるため、ユーザに認知負荷をかけられない場面、落ち着いた雰囲気が求められる場面など、使用される状況に応じて、発話を順次表示することにしてもよい。なお、順次表示する場合には、所定の時間間隔を開けて表示してもよい。時間間隔は固定であっても可変であってもよい。
以上、この発明の実施の形態について説明したが、具体的な構成は、これらの実施の形態に限られるものではなく、この発明の趣旨を逸脱しない範囲で適宜設計の変更等があっても、この発明に含まれることはいうまでもない。実施の形態において説明した各種の処理は、記載の順に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。
[プログラム、記録媒体]
上記実施形態で説明した対話装置における各種の処理機能をコンピュータによって実現する場合、対話装置が有すべき機能の処理内容はプログラムによって記述される。また、上記変形例で説明した対話システムにおける各種の処理機能をコンピュータによって実現する場合、対話システムが有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記対話装置および対話システムにおける各種の処理機能がコンピュータ上で実現される。
この処理内容を記述したプログラムは、コンピュータで読み取り可能な記録媒体に記録しておくことができる。コンピュータで読み取り可能な記録媒体としては、例えば、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリ等どのようなものでもよい。
また、このプログラムの流通は、例えば、そのプログラムを記録したDVD、CD-ROM等の可搬型記録媒体を販売、譲渡、貸与等することによって行う。さらに、このプログラムをサーバコンピュータの記憶装置に格納しておき、ネットワークを介して、サーバコンピュータから他のコンピュータにそのプログラムを転送することにより、このプログラムを流通させる構成としてもよい。
このようなプログラムを実行するコンピュータは、例えば、まず、可搬型記録媒体に記録されたプログラムもしくはサーバコンピュータから転送されたプログラムを、一旦、自己の記憶装置に格納する。そして、処理の実行時、このコンピュータは、自己の記憶装置に格納されたプログラムを読み取り、読み取ったプログラムに従った処理を実行する。また、このプログラムの別の実行形態として、コンピュータが可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することとしてもよく、さらに、このコンピュータにサーバコンピュータからプログラムが転送されるたびに、逐次、受け取ったプログラムに従った処理を実行することとしてもよい。また、サーバコンピュータから、このコンピュータへのプログラムの転送は行わず、その実行指示と結果取得のみによって処理機能を実現する、いわゆるASP(Application Service Provider)型のサービスによって、上述の処理を実行する構成としてもよい。なお、本形態におけるプログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるもの(コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータ等)を含むものとする。
また、この形態では、コンピュータ上で所定のプログラムを実行させることにより、本装置を構成することとしたが、これらの処理内容の少なくとも一部をハードウェア的に実現することとしてもよい。

Claims (7)

  1. 予め記憶されたシナリオに基づいた発話を決定する対話システムを第一の対話システムとよび、少なくともユーザの発話内容に基づいた発話を決定する対話システムを第二の対話システムとよぶとしたとき、
    提示部が、オープン発話を提示する第一提示ステップと、
    入力部が、上記オープン発話に対するユーザの発話を受け付ける発話受付ステップと、
    上記提示部が、上記ユーザの発話に基づいて第二の対話システムが決定した発話を提示する第二提示ステップと、
    上記提示部が、第一の対話システムが決定した発話を上記第二提示ステップの後に提示する第三提示ステップと、
    を含む対話方法。
  2. 請求項1に記載の対話方法であって、
    上記各提示ステップは複数のロボットが行うものであり、
    上記第一提示ステップは、上記複数のロボットのうちの何れかのロボットが発話するものであり、
    上記発話受付ステップは、上記ユーザの発話を音声認識して受け付けるものであり、
    上記第二提示ステップは、上記複数のロボットのうちの何れかのロボットである第一のロボットが発話するものであり、
    上記第三提示ステップは、上記複数のロボットのうちの上記第一のロボットとは異なるロボットである第二のロボットが発話するものである、
    対話方法。
  3. 請求項1に記載の対話方法であって、
    上記各提示ステップはグループチャットにおける複数のアカウントにより行うものであり、
    上記第一提示ステップは、グループチャットにおいて上記複数のアカウントの何れかのアカウントにより提示するものであり、
    上記発話受付ステップは、上記グループチャットにおいて上記ユーザの投稿を受け付けるものであり、
    上記第二提示ステップは、上記グループチャットにおいて上記複数のアカウントのうちの何れかのアカウントである第一のアカウントにより提示するものであり、
    上記第三提示ステップは、上記グループチャットにおいて上記複数のアカウントのうち上記第一のアカウントとは異なる第二のアカウントにより提示するものである、
    対話方法。
  4. 予め記憶されたシナリオに基づいた発話を決定する対話システムを第一の対話システムとよび、少なくともユーザの発話内容に基づいた発話を決定する対話システムを第二の対話システムとよぶとしたとき、
    オープン発話を決定し、上記オープン発話後に上記オープン発話に対するユーザの発話に基づいて第二の対話システムにより発話を決定し、上記第二の対話システムにより決定した発話後に第一の対話システムにより発話を決定する発話決定部と、
    上記オープン発話に対するユーザの発話を受け付ける入力部と、
    上記発話決定部が決定したオープン発話を提示し、上記発話決定部が上記第二の対話システムにより決定した発話を上記ユーザの発話の後に提示し、上記発話決定部が上記第一の対話システムにより決定した発話を上記第二の対話システムが決定した発話の後に提示する提示部と、
    を含む対話システム。
  5. ユーザの発話を受け付ける入力部と、発話を提示する提示部とを少なくとも含む対話システムが提示する発話を決定する対話装置であって、
    予め記憶されたシナリオに基づいた発話を決定する対話システムを第一の対話システムとよび、少なくともユーザの発話内容に基づいた発話を決定する対話システムを第二の対話システムとよぶとしたとき、
    オープン発話を決定し、上記オープン発話後に上記オープン発話に対するユーザの発話に基づいて第二の対話システムにより発話を決定し、上記第二の対話システムにより決定した発話後に第一の対話システムにより発話を決定する発話決定部
    を含む対話装置。
  6. 請求項1から3のいずれかに記載の対話方法の各ステップをコンピュータに実行させるためのプログラム。
  7. 請求項5に記載の対話装置としてコンピュータを機能させるためのプログラム。
JP2018518375A 2016-05-20 2017-05-19 対話方法、対話システム、対話装置、およびプログラム Active JP6699010B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016101222 2016-05-20
JP2016101222 2016-05-20
PCT/JP2017/018791 WO2017200076A1 (ja) 2016-05-20 2017-05-19 対話方法、対話システム、対話装置、およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2017200076A1 true JPWO2017200076A1 (ja) 2018-12-13
JP6699010B2 JP6699010B2 (ja) 2020-05-27

Family

ID=60325875

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018518375A Active JP6699010B2 (ja) 2016-05-20 2017-05-19 対話方法、対話システム、対話装置、およびプログラム

Country Status (2)

Country Link
JP (1) JP6699010B2 (ja)
WO (1) WO2017200076A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11430440B2 (en) * 2018-05-11 2022-08-30 Ntt Docomo, Inc. Dialog device
CN109129512A (zh) * 2018-09-30 2019-01-04 北京小谛机器人科技有限公司 聊天机器人的唤醒方法及装置
WO2020111351A1 (ko) * 2018-11-30 2020-06-04 엘지전자 주식회사 차량 제어장치 및 차량 제어방법
JP7212888B2 (ja) * 2019-05-20 2023-01-26 日本電信電話株式会社 自動対話装置、自動対話方法、およびプログラム
JPWO2023281580A1 (ja) * 2021-07-05 2023-01-12
CN115186147B (zh) * 2022-05-31 2023-08-25 华院计算技术(上海)股份有限公司 对话内容的生成方法及装置、存储介质、终端
CN116524910B (zh) * 2023-06-25 2023-09-08 安徽声讯信息技术有限公司 一种基于麦克风的文稿预制方法及***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002169590A (ja) * 2000-12-01 2002-06-14 Namco Ltd 模擬会話システム、模擬会話方法、および情報記憶媒体
JP2004287016A (ja) * 2003-03-20 2004-10-14 Sony Corp 音声対話装置及び方法並びにロボット装置
JP2015125198A (ja) * 2013-12-25 2015-07-06 Kddi株式会社 対話シナリオに対する動的対話ノードの挿入行動を制御する対話プログラム、サーバ及び方法
WO2015174172A1 (ja) * 2014-05-13 2015-11-19 シャープ株式会社 制御装置およびメッセージ出力制御システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002169590A (ja) * 2000-12-01 2002-06-14 Namco Ltd 模擬会話システム、模擬会話方法、および情報記憶媒体
JP2004287016A (ja) * 2003-03-20 2004-10-14 Sony Corp 音声対話装置及び方法並びにロボット装置
JP2015125198A (ja) * 2013-12-25 2015-07-06 Kddi株式会社 対話シナリオに対する動的対話ノードの挿入行動を制御する対話プログラム、サーバ及び方法
WO2015174172A1 (ja) * 2014-05-13 2015-11-19 シャープ株式会社 制御装置およびメッセージ出力制御システム

Also Published As

Publication number Publication date
JP6699010B2 (ja) 2020-05-27
WO2017200076A1 (ja) 2017-11-23

Similar Documents

Publication Publication Date Title
WO2017200072A1 (ja) 対話方法、対話システム、対話装置、およびプログラム
US20220254343A1 (en) System and method for intelligent initiation of a man-machine dialogue based on multi-modal sensory inputs
WO2017200076A1 (ja) 対話方法、対話システム、対話装置、およびプログラム
US11468894B2 (en) System and method for personalizing dialogue based on user's appearances
US11183187B2 (en) Dialog method, dialog system, dialog apparatus and program that gives impression that dialog system understands content of dialog
WO2017200080A1 (ja) 対話方法、対話装置、及びプログラム
WO2017200078A1 (ja) 対話方法、対話システム、対話装置、およびプログラム
JP6970413B2 (ja) 対話方法、対話システム、対話装置、およびプログラム
WO2018163647A1 (ja) 対話方法、対話システム、対話装置、およびプログラム
JP6682104B2 (ja) 対話方法、対話システム、対話装置、およびプログラム
JP6667855B2 (ja) 取得方法、生成方法、それらのシステム、及びプログラム
JP6551793B2 (ja) 対話方法、対話システム、対話装置、およびプログラム
WO2020070923A1 (ja) 対話装置、その方法、およびプログラム
JP6601625B2 (ja) 対話方法、対話システム、対話装置、およびプログラム
JP6610965B2 (ja) 対話方法、対話システム、対話装置、およびプログラム
JPWO2017200077A1 (ja) 対話方法、対話システム、対話装置、及びプログラム
JP6755509B2 (ja) 対話方法、対話システム、対話シナリオ生成方法、対話シナリオ生成装置、及びプログラム
WO2021064947A1 (ja) 対話方法、対話システム、対話装置、およびプログラム
WO2021064948A1 (ja) 対話方法、対話システム、対話装置、およびプログラム
이용은 The Influencing Factors of Trust in Human-like Agents

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190903

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200324

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200401

R150 Certificate of patent or registration of utility model

Ref document number: 6699010

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250