JP2017191531A - コミュニケーションシステム、サーバ及びコミュニケーション方法 - Google Patents

コミュニケーションシステム、サーバ及びコミュニケーション方法 Download PDF

Info

Publication number
JP2017191531A
JP2017191531A JP2016081671A JP2016081671A JP2017191531A JP 2017191531 A JP2017191531 A JP 2017191531A JP 2016081671 A JP2016081671 A JP 2016081671A JP 2016081671 A JP2016081671 A JP 2016081671A JP 2017191531 A JP2017191531 A JP 2017191531A
Authority
JP
Japan
Prior art keywords
user
utterance
response
robot
server
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016081671A
Other languages
English (en)
Inventor
義博 中橋
Yoshihiro Nakahashi
義博 中橋
貴史 鹿田
Takashi Shikata
貴史 鹿田
尋満 山内
Hiromitsu Yamauchi
尋満 山内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robot Start Inc
Original Assignee
Robot Start Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robot Start Inc filed Critical Robot Start Inc
Priority to JP2016081671A priority Critical patent/JP2017191531A/ja
Publication of JP2017191531A publication Critical patent/JP2017191531A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Information Transfer Between Computers (AREA)

Abstract

【課題】ユーザとロボットとの会話に使用されるデータベースの情報量を増加させ、会話の品質を高める。【解決手段】ロボットは、ユーザの発話を集音するマイクと、発話を通じてサーバに送信し応答を受信する送受信手段と、応答をロボットの発話として編集して音声信号を生成する音声編集手段と、編集音声信号を出力するスピーカとを有する。サーバは、ロボットの信号の送受信を管理する接続管理手段と、会話に用いられる問いおよび回答の集合を保存する会話データベースと、ユーザの発話に対する応答を会話データベースを参照して生成し、ロボットに送信する会話エンジン有する。ユーザの発話に対する応答を生成できない場合、発話を他のユーザの一つ以上のロボットに送信し、受信した発話に対する応答をロボットに送信する送受信手段と、他のユーザのロボットから送られてきた応答を発話に対する応答として会話データベースに登録する応答収集手段とを有する。【選択図】図1

Description

本発明は、コミュニケーションシステム、サーバ及びコミュニケーション方法に関する。
近年、人とロボット(例えば、人型ロボット)との対話を成立させるコミュニケーションシステムが提案されている。
その一つは、タスク指向型とよばれるもので、特定のタスクをロボットに行わせるための対話システムである。例えば「今日の天気を教えて」といった、ユーザである人の発話(命令)に対して、ロボットは今日の天気予報を音声で伝える。これらの命令と回答のセットは、予め一意に辞書に登録されている。
もう一つは、雑談型と呼ばれるもので、ロボットに特有のタスクをさせるというより、ユーザがロボットとの会話を楽しむためのシステムである(非特許文献1)。これはchatbot(人工無能)対話システムを応用している。このchatbot対話システムは、ユーザと日常会話を行なうためのシステムであり、大きく分けて、辞書型(シナリオ型)、ログ型、マルコフ文生成型(テキスト生成型)等がある。その基本は所定の対話パターンをデータベース化しておき、対話時の入力内容に応じて相応しい応答内容を検索し、それをシステム側から出力する点にある。例えば、対話システムに対してユーザが「何が好きですか?」とキーボードやマイク等を通じて入力すると、システム側は「何−が−好き−です−か?」といった単語列に最も合致する応答データを検索する。データベースには予め入力例とそれに対応する応答文とが大量に格納されている。対話システムは検索結果によって選ばれた応答文を取り出し、それをスピーカやモニターを介してユーザに対して出力する。データベース中の応答内容の格納方法を工夫することで、ユーザの入力の一部を応答文に挿入することもできる。
[Valerie] Valerie Web Site : http://www.roboceptionist.com/
しかしながら、現在の所、辞書型(シナリオ型)、ログ型、マルコフ文生成型(テキスト生成型)等のいずれの方法も完全とはいえず、人間とロボットとの会話が成立しない場合が多々ある。これは、雑談エンジンが参照するデータベースの情報量が少ないためであり、その情報量を増やすために、多くの手間がかかっていた。
一方、ロボットのユーザは、ロボットとの間で、ある程度完成されたコミュニケーションを望んでいる。
そこで、本発明は上記課題に鑑みて発明されたものであって、その目的はユーザとロボットとの間で行われる会話を行うために使用される会話のデータベースの情報量を手間なく増加させると共に、ユーザとロボットとの間の会話の品質を高めることができるコミュニケーションシステム、サーバ及びコミュニケーション方法を提供することにある。
本発明の一態様は、コミュニケーションシステムであって、ユーザ側に設置される複数のロボットと、サーバとを有し、前記ロボットは、ユーザの発話を集音するマイクと、前記マイクで集音されたユーザの発話を、ネットワークを通じて前記サーバに送信し、前記ネットワークを通じて送られてくる、前記ユーザの発話に対する応答を受信する送受信手段と、前記ユーザの発話に対する応答を、前記ロボットの発話として編集して、編集音声信号を生成する音声編集手段と、前記編集音声信号を出力する少なくとも一以上のスピーカと、を有し、前記サーバは、前記ロボットの信号の送受信を管理する接続管理手段と、会話に用いられる問いおよび回答の集合を保存する会話データベースと、前記ユーザの発話に対する応答を、前記会話データベースを参照して検索又は生成し、前記接続管理手段を介して前記ロボットに送信する会話エンジンと、前記会話エンジンが前記ユーザの発話に対する応答を検索又は生成できない場合、前記接続管理手段を介して、前記ユーザの発話を前記ユーザ以外の他のユーザの少なくとも一つ以上のロボットに送信し、前記他のユーザのロボットから送られてきた前記ユーザの発話に対する応答を、前記ユーザのロボットに送信する送受信手段と、前記他のユーザのロボットから送られてきた前記ユーザの発話に対する応答を、前記ユーザの発話に対する応答として、前記会話データベースに登録する応答収集手段とを有するコミュニケーションシステムである。
本発明の一態様は、ユーザ側に設置される複数のロボットの信号の送受信を管理する接続管理手段と、会話に用いられる問いおよび回答の集合を保存する会話データベースと、前記ユーザの発話に対する応答を、前記会話データベースを参照して検索又は生成し、前記接続管理手段を介して前記ロボットに送信する会話エンジンと、前記会話エンジンが前記ユーザの発話に対する応答を検索又は生成できない場合、前記接続管理手段を介して、前記ユーザの発話を前記ユーザ以外の他のユーザの少なくとも一つ以上のロボットに送信し、前記他のユーザのロボットから送られてきた前記ユーザの発話に対する応答を、前記ユーザのロボットに送信する送受信手段と、前記他のユーザのロボットから送られてきた前記ユーザの発話に対する応答を、前記ユーザの発話に対する応答として、前記会話データベースに登録する応答収集手段とを有するサーバである。
本発明の一態様は、サーバであって、ユーザ側に設置される複数のロボットの信号の送受信を管理する接続管理手段と、前記接続管理手段を介して、前記ユーザの発話を前記ユーザ以外の他のユーザの少なくとも一つ以上のロボットに送信し、前記他のユーザのロボットから送られてきた前記ユーザの発話に対する応答を、前記ユーザのロボットに送信する送受信手段と、前記ユーザの発話に対する応答の出力時のユーザを撮影したユーザ画像を受信する手段と、前記ユーザ画像に基づいて、前記ユーザの発話に対する応答に対する反応を評価する評価手段と、前記評価と、前記ユーザの発話と、前記ユーザの発話に対する応答とを関連付けて、会話データベースに登録する応答収集手段とを有するサーバである。
本発明は、ユーザ側に設置される第1のロボットは、ユーザの発話を集音し、集音されたユーザの発話を、ネットワークを通じてサーバに送信し、前記サーバは、前記ユーザの発話を受信し、前記ユーザの発話に対する応答を、会話データベースを参照して検索又は生成し、前記第1のロボットに送信し、前記サーバは、前記ユーザの発話を受信し、前記ユーザの発話に対する応答を、会話データベースを参照して検索又は生成できない場合、前記ユーザの発話を前記ユーザ以外の他のユーザの少なくとも一つ以上の第2のロボットに送信し、前記サーバは、第2のロボットから送信された前記ユーザの発話に対する応答を受信し、前記第1のロボットに送信し、前記サーバは、前記第2のロボットから送信された前記ユーザの発話に対する応答を、前記ユーザの発話に対する応答として、会話データベースに登録し、前記第1のロボットは、前記ユーザの発話に対する応答を受信し、前記ユーザの発話に対する応答を、前記ロボットの発話として編集して出力するコミュニケーション方法である。
本発明の一態様は、ユーザ側に設置される第1のロボットは、ユーザの発話を集音し、集音されたユーザの発話を、ネットワークを通じてサーバに送信し、前記サーバは、前記ユーザの発話を受信し、前記ユーザの発話を前記ユーザ以外の他のユーザの少なくとも一つ以上の第2のロボットに送信し、前記サーバは、第2のロボットから送信された前記ユーザの発話に対する応答を受信し、前記第1のロボットに送信し、前記第1のロボットは、受信したユーザの発話に対する応答を出力し、前記第1のロボットは、前記ユーザの発話に対する応答の出力時のユーザを撮影し、ユーザ画像を前記サーバに送信し、前記サーバは、前記ユーザ画像に基づいて、前記ユーザの発話に対する応答に対する反応を評価し、前記サーバは、前記評価と、前記ユーザの発話と、前記ユーザの発話に対する応答とを関連付けて、会話データベースに登録するコミュニケーション方法である。
本発明は、ユーザとロボットとの間で行われる会話を行うために使用される会話のデータベースの情報量を手間なく増加させると共に、ユーザとロボットとの間の会話の品質を高めることができる。
図1は本発明の第1の実施の形態に係るコミュニケーションロボットシステムを模式的に示した図である。 図2は通常のユーザとロボットとの会話の動作を説明するための図である。 図3は発話に対する応答である発話を、会話エンジンにより検索又は生成することができない場合の動作を説明するための図である。 図4は第1の実施の形態におけるロボット1の構成を示すブロック図である。 図5は第1の実施の形態におけるサーバ3のブロック図である。 図6は接続管理データベース32の一例を示す図である。 図7は接続管理データベース32の他の一例を示す図である。 図8は本発明の第2の実施の形態に係るコミュニケーションロボットシステムを模式的に示した図である。 図9は本発明の第2の実施の形態に係るロボット1のブロック図である。 図10は本発明の第2の実施の形態に係るサーバ3のブロック図である。
<第1の実施の形態>
本発明の第1の実施の形態を説明する。
図1は、本発明の第1の実施の形態に係るコミュニケーションロボットシステムを模式的に示した図である。
図1中、1はユーザA側に設置されるロボットであり、2はユーザB側に設置されるロボットであり、3はロボット1とロボット2とに接続されるサーバである。
本発明の第1の実施の形態に係るコミュニケーションロボットシステムの概略を説明する。
サーバ3は、各ロボット1,2とのデータの送受信を行うための接続管理と、ユーザとロボット1、2との会話を行うための会話エンジンの機能とを備える。
まず、通常のユーザとロボットとの会話を説明する。図2は、通常のユーザとロボットとの会話の動作を説明するための図である。
ユーザAが発話Xを行うと、ロボット1は発話Xを集音し、その発話Xの音声信号をサーバ3に送信する。発話Xの音声信号を受信したサーバ3は、発話Xに対する応答である発話Yを、会話エンジンにより検索又は生成し、発話Yをロボット1に送信する。発話Yを受信したロボット1は、ロボット1の発話として、発話Yを出力する。これにより、ユーザAとロボット1との会話が成立する。
次に、発話に対する応答である発話を、会話エンジンにより検索又は生成することができない場合について説明する。図3は、発話に対する応答である発話を、会話エンジンにより検索又は生成することができない場合の動作を説明するための図である。
ユーザAが発話Mを行うと、ロボット1は発話Mを集音し、その発話Mの音声信号をサーバ3に送信する。発話Mの音声信号を受信したサーバ3は、会話エンジンにより、発話Mに対する応答である発話を検索又は生成することを試みる。しかし、その発話を検索又は生成することができない場合、サーバ3に、接続可能又は接続中のロボット(図3ではロボット2)に、発話Mを送信する。
発話Mを受信したロボット2は、ロボット2の発話として、発話Mを出力する。ロボット2の発話Mを聞いたユーザBは、発話Mの応答として発話Nを発する。ユーザBが発話Nを行うと、ロボット2は発話Nを集音し、その発話Nの音声信号をサーバ3に送信する。
発話Nの音声信号を受信したサーバ3は、発話Nをロボット1に送信する。発話Nを受信したロボット1は、ロボット1の発話として、発話Nを出力する。これにより、ユーザAとロボット1との会話が成立する。
また、発話Mに対する応答である発話を検索又は生成することができなかったサーバ3は、発話Mに対する応答として、発話Nを会話ログとして記録する。
このような構成にすることにより、現状の会話エンジンだけではカバーできない発話があったとしても対処することができるとともに、会話ログを自動で収集していくので、高品質の会話エンジンを生成することができる。
以下、具体的な実施の形態を説明する。
図4は第1の実施の形態におけるロボットの構成を示すブロック図である。尚、ロボット1とロボット2とは、同様のものなので、ロボット1を例にしてロボットの構成を説明する。
図4に示す如く、ロボット1は、マイク11と、音声編集部12と、スピーカ13と、制御部14とを有する。
マイク11は、ユーザAの音声を集音するマイクである。
音声編集部12は、ネットワークを通じてサーバ3から送られてくるユーザBの音声信号を、ロボット1の発話として編集して、編集音声信号を生成するものである。ここで、ユーザBの音声信号をロボット1の発話として編集するとは、ユーザBの音声信号に対して、ユーザBの音声(音色や声色)をロボット1の音声(音色や声色)に編集(変換)するものである。例えば、男性又は女性のユーザの音声を、ロボット特有の中性の音声に編集(変換)したり、ユーザのカスタマイズによるロボットの音声に編集(変換)したりする。
スピーカ13は、音声編集部12により編集(変換)された編集音声信号を出力する少なくとも一以上のスピーカである。
次に、サーバ3を説明する。
図5は第1の実施の形態におけるサーバ3のブロック図である。
サーバ3は、ロボット間接続管理部31と、接続管理データベース32、音声認識部33と、会話エンジン34と、会話ログデータベース35と、会話ログ収集部36とを備える。
接続管理データベース32は、図6に示す如く、ロボット識別情報(ID)と、接続状況(接続中又は切断中)と、接続先のロボット識別情報(ID)とが関連付けられて記憶される。ここで、ロボット識別情報(ID)は、サーバ3と接続され、会話エンジン又は他のロボットを用いてユーザの発話に対する応答の発話を返すべきロボットの識別情報である。接続状況は、サーバ3と現在接続状態にあるかを示す情報である。接続先のロボット識別情報(ID)とは、会話エンジンを用いてユーザの発話に対する応答の発話を生成することができない場合、ユーザの発話を発言させるロボットの識別情報である。
ロボット間接続管理部31は、接続管理データベース32を用いて、ロボット間、本例では、ロボット1とロボット2との接続を管理する。
具体的には、ユーザの発話に対する応答の要求がロボットからあった場合、そのロボットと接続を確立し、接続管理データベース32の接続状況を接続中にする。
また、会話エンジンを用いてユーザの発話に対する応答の発話を生成することができない場合、現在接続されていない(切断中)のロボット中から、ユーザの発話を発言させるロボットを検索する。このとき、図7に示すように、接続管理データベース32にユーザ属性情報を記憶させておけば、そのユーザ属性に基づいて、ユーザの発話を発言させるロボットを検索するようにしても良い。ここで、ユーザ属性情報とは、ロボットを所有するユーザの年齢、性別、住所、趣味等である。
例えば、接続管理データベース32のユーザ属性情報に基づいて、応答を求めているユーザが20代の女性である場合、20代の女性で、かつ、切断中のロボット識別情報を検索し、それに対応するロボットとの接続を確立する。
音声認識部33は、ロボット1から送信されてきた音声信号を、従来からある音声認識の技術を用いてテキスト化する。
会話エンジン34は、例えば、ログ型の会話エンジンである。会話エンジン34は、音声認識部33から渡されるテキストデータを分析し、その内容に応じて会話ログデータベース35を検索し、応答に適した発話(コンテンツ)を選択する。そして、選択した発話(コンテンツ)を、ロボット間接続管理部31を介してロボット1に送信する。一方、会話エンジン34は、音声認識部33から渡されるテキストデータを分析してその内容に応じて会話ログデータベース35を検索した結果、応答に適した発話(コンテンツ)が無い場合、その結果を会話ログ収集部36に送信する。
会話ログ収集部36は、会話エンジン34の結果を受けて、音声認識部33から渡されるテキストデータに対応する音声信号を、ロボット間接続管理部31に送信する。また、会話ログ収集部36は、会話エンジン34で応答に適した発話(コンテンツ)の代わりに応答したロボットからの発話を収集し、その発話の内容をテキスト化して会話ログデータベース35に登録する。
次に、本実施の形態の具体的な動作を説明する。
まず、ユーザAは、ロボット1に向かって話しかける。そのユーザAの音声はマイク11で集音され、その音声信号がサーバ3に送信される。例えば、ユーザAが「アップルパイを作って食べるよ。」と話しかけると、「アップルパイを作って食べるよ。」の音声信号がサーバ3に送信される。
「アップルパイを作って食べるよ。」の音声信号を受信したサーバ3の音声認識部33は、ロボット1から送信されてきた音声信号を、音声認識の技術を用いてテキスト化する。そして、テキスト化されたテキストデータを、会話エンジン34に送信する。
会話エンジン34は、音声認識部33から渡されるテキストデータ「アップルパイを作って食べるよ。」を分析し、その内容に応じて会話ログデータベース35を検索し、応答に適した発話(コンテンツ)を選択する。ここでは、応答に適した発話(コンテンツ)として、「いいね。食べたい。」が選択されたものとすると、この「いいね。食べたい。」を、ロボット間接続管理部31を介してロボット1に送信する。
ロボット1では、音声編集部12により、受信した「いいね。食べたい。」の音声信号を、ロボット1の発話として編集して、編集音声信号を生成する。そして、ロボット1の特有の音声で、「いいね。食べたい。」が出力される。
次に、ユーザAは、ロボット1が発した音声に返答して、ロボット1に向かって話しかける。そのユーザAの音声はマイク11で集音され、その音声信号がサーバ3に送信される。例えば、ユーザAが「いいね。食べたい。」に対して、「あ。パイ生地買い忘れた。」と返答した場合、「あ。パイ生地買い忘れた。」の音声信号がサーバ3に送信される。
「あ。パイ生地買い忘れた。」の音声信号を受信したサーバ3の音声認識部33は、ロボット1から送信されてきた音声信号を、音声認識の技術を用いてテキスト化する。そして、テキスト化されたテキストデータを、会話エンジン34に送信する。
会話エンジン34は、音声認識部33から渡されるテキストデータ「あ。パイ生地買い忘れた。」を分析し、その内容に応じて会話ログデータベース35を検索し、応答に適した発話(コンテンツ)を選択する。ここで、会話エンジン34は応答に適した発話(コンテンツ)を検索できなかったものとすると、会話エンジン34はその結果を、会話ログ収集部36に送信する。
会話ログ収集部36は、会話エンジン34の結果を受けて、音声認識部33から渡されるテキストデータに対応する音声信号を、ロボット間接続管理部31に送信する。
ロボット間接続管理部31は、現在接続されていない(切断中)のロボット中から、ユーザの発話を発言させるロボットを、接続管理データベース32のユーザ属性情報に基づいて検索する。そして、ここでは、ロボットBが選択されたものとし、サーバ3のロボット間接続管理部31は、テキストデータ「あ。パイ生地買い忘れた。」を、ロボット2に送信する。
ロボット2では、音声編集部12により、受信した音声信号をロボット2の発話として編集して、編集音声信号を生成する。例えば、受信した「あ。パイ生地買い忘れた。」のテキストデータを、ロボット2の発話として編集して、編集音声信号を生成する。そして、編集音声信号は、スピーカ13から出力される。例えば、ロボット2の特有の音声で、「あ。パイ生地買い忘れた。」が出力される。
ユーザBは、ロボット2が発した音声に返答して、ロボット2に向かって話しかける。そのユーザBの音声はマイク11で集音され、その音声信号がサーバ3に送信される。例えば、ユーザBが「あ。パイ生地買い忘れた。」に対して、「残念。今度ね。」と返答した場合、「残念。今度ね。」の音声信号がサーバ3に送信される。
サーバ3では、ユーザBが返答した「残念。今度ね。」を受信し、ロボット1に送信する。
ロボット1では、音声編集部12により、受信した音声信号をロボット1の発話として編集して、編集音声信号を生成する。例えば、受信した「残念。今度ね。」の音声信号を、ロボット1の発話として編集して、編集音声信号を生成する。そして、ロボット1の特有の音声で、「残念。今度ね。」が、スピーカ13から出力される。
また、サーバ3の会話ログ収集部36では、ユーザBが発した「あ。パイ生地買い忘れた。」に対する返答として「残念。今度ね。」を、会話ログデータベース35に登録する。
このように、ユーザの発話に対する応答がデータベースに登録されていない場合であっても、その応答を他のロボットから取得するように構成しているので、会話が途切れることなく行える。更に、多くの自然なやり取りの会話ログが収集でき、収集した会話ログは、ログ型の会話エンジンなどのデータに用いることができるので、高品質な会話エンジンを構築できる。
尚、会話エンジンが応答に適した発話(コンテンツ)を検索又は生成できず、他のロボットからその応答を取得する場合、他のロボットのユーザが会話に不適切な発話(以下、禁止用語と記載する)をしてしまう場合もある。
このような場合を防ぐため、サーバ3は、上記の構成に加えて、禁止用語をフィルタリングするフィルタリング部と、禁止用語群が格納された禁止用語データベースとを備えるようにしても良い。
フィルタリング部は、禁止用語データベースを参照し、ユーザの発話に対する応答の発話に禁止用語が含まれているかを判断し、含まれている場合にはユーザの該当する音声を削除、または、その該当する音声を他の用語に変換する。そして、削除、変換された音声を、通信先のロボットに転送する。
このようにすることにより、会話中に不適切な言葉が発せられた場合であっても、会話の相手に、不快な思いをさせることがない。
<第2の実施の形態>
本発明の第2の実施の形態を説明する。
第2の実施の形態は、会話エンジンがある発話の応答に適した発話(コンテンツ)が無い場合、その発話を複数のロボットに送信し、そのロボットに発話させる。そして、複数の応答を収集し、複数の応答を、その応答の元となる発話を集音したロボットに発話させ、ユーザの反応により適したログを収集する例である。
第2の実施の形態の概略を説明する。
図8は、本発明の第2の実施の形態に係るコミュニケーションロボットシステムを模式的に示した図である。
第2の実施の形態の概略を説明すると、ユーザAが発話Mを行うと、ロボット1は発話Mを集音し、その発話Mの音声信号をサーバ3に送信する。発話Mの音声信号を受信したサーバ3は、会話エンジンにより、発話Mに対する応答である発話を検索又は生成することを試みる。しかし、その発話Mを検索又は生成することができない場合、サーバ3に接続している複数のロボット(図3ではロボット2、4)に、発話Mを送信する。
発話Mを受信したロボット2、4は、ロボット2、4の発話として、発話Mを出力する。
ロボット2の発話Mを聞いたユーザBは、発話Mの応答として発話Nを発する。ユーザBが発話Nを行うと、ロボット2は発話Nを集音し、その発話Nの音声信号をサーバ3に送信する。ロボット4の発話Mを聞いたユーザCは、発話Mの応答として発話Oを発する。ユーザCが発話Oを行うと、ロボット4は発話Oを集音し、その発話Oの音声信号をサーバ3に送信する。
発話N及び発話Oの音声信号を受信したサーバ3は、まず、発話Nをロボット1に送信する。
発話Nを受信したロボット1は、ロボット1の発話として、発話Nを出力する。このとき、ロボット1は、発話Nを聞いた時のユーザAの表情等の画像を撮影する。そして、ロボット1は、発話Nを聞いた時のユーザAの表情等の画像を、サーバ3に送信する。
続いて、サーバ3は、発話Oをロボット1に送信する。
発話Oを受信したロボット1は、ロボット1の発話として、発話Oを出力する。このとき、ロボット1は、発話Oを聞いた時のユーザAの表情等の画像を撮影する。そして、ロボット1は、発話Oを聞いた時のユーザAの表情等の画像を、サーバ3に送信する。
サーバ3は、発話Nを聞いた時のユーザAの表情等の画像と、発話Oを聞いた時のユーザAの表情等の画像とを解析し、いずれの発話(応答)の方がユーザAの反応(リアクション)が良いかを評価する。そして、発話Mに対する応答の会話ログとして、発話N及び発話Oとその評価結果とを記録する。
ある発話に対する返答としての応答を複数記録し、各応答の発話に対する評価を記録することにより、会話エンジンが、よりユーザが好ましい発話を選択することができる。
以下、具体的な構成について説明する。
ロボット1は、図9に示すように、第1の実施の形態の構成に加えて、ロボット1がユーザを撮影するカメラ14を備えている。そして、ロボット1は、カメラ14により、ロボット1の発話時に、発話を聞いたユーザを撮影し、この撮影したユーザ画像を、発話を識別する情報とともに、サーバ3に送信する。
サーバ3は、図10に示す如く、第1の実施の形態の構成に加えて、評価部37を備えている。そして、評価部37は、サーバ3に送信されてくるユーザ画像に基づいて、ロボット1の発話時のユーザの反応(リアクション)を判断し、その発話に対するレイティングを付けて会話ログデータベース35に登録する。
例えば、ロボット1が発話Mに対する応答として発話Nを出力した時に撮影されたユーザ画像に基づいてユーザの顔が無表情であると判断した場合、発話Nは発話Mに対する応答としては低い評価が与えられる。一方、ロボット1が発話Mに対する応答として発話Oを出力した時に撮影されたユーザ画像に基づいてユーザの顔が笑顔であると判断した場合、発話Oは発話Mに対する応答としては高い評価が与えられる。そして、これらの評価と共に、発話N及び発話Oが会話ログデータベース35に登録される。
第2の実施の形態は、会話エンジンがユーザの発話の応答に適した発話(コンテンツ)が無い場合において、複数のロボットから収集した応答を、ユーザに対する返答として投げかけ、そのユーザの反応を評価するように構成されている。この構成により、ユーザの反応の良い応答を区別してデータベースに登録することができ、会話エンジンが応答を生成するときに参照することができ、会話エンジンの精度を高めることができる。
尚、上述した実施の形態では、各部をハードウェアで構成したが、上述した動作の処理を情報処理装置(CPU)に行わせるプログラムによっても構成できる。
以上好ましい実施の形態をあげて本発明を説明したが、本発明は必ずしも上記実施の形態に限定されるものではなく、その技術的思想の範囲内において様々に変形し実施することが出来る。
1 ロボット
2 ロボット
3 サーバ
4 ロボット
11 マイク
12 音声編集部
13 スピーカ
14 カメラ
31 ロボット間接続管理部
32 接続管理データベース
33 音声認識部
34 会話エンジン
35 会話ログデータベース
36 会話ログ収集部
37 評価部

Claims (12)

  1. コミュニケーションシステムであって、
    ユーザ側に設置される複数のロボットと、サーバとを有し、
    前記ロボットは、
    ユーザの発話を集音するマイクと、
    前記マイクで集音されたユーザの発話を、ネットワークを通じて前記サーバに送信し、前記ネットワークを通じて送られてくる、前記ユーザの発話に対する応答を受信する送受信手段と、
    前記ユーザの発話に対する応答を、前記ロボットの発話として編集して、編集音声信号を生成する音声編集手段と、
    前記編集音声信号を出力する少なくとも一以上のスピーカと、
    を有し、
    前記サーバは、
    前記ロボットの信号の送受信を管理する接続管理手段と、
    会話に用いられる問いおよび回答の集合を保存する会話データベースと、
    前記ユーザの発話に対する応答を、前記会話データベースを参照して検索又は生成し、前記接続管理手段を介して前記ロボットに送信する会話エンジンと、
    前記会話エンジンが前記ユーザの発話に対する応答を検索又は生成できない場合、前記接続管理手段を介して、前記ユーザの発話を前記ユーザ以外の他のユーザの少なくとも一つ以上のロボットに送信し、前記他のユーザのロボットから送られてきた前記ユーザの発話に対する応答を、前記ユーザのロボットに送信する送受信手段と、
    前記他のユーザのロボットから送られてきた前記ユーザの発話に対する応答を、前記ユーザの発話に対する応答として、前記会話データベースに登録する応答収集手段と
    を有するコミュニケーションシステム。
  2. 前記ロボットは、
    前記他のユーザのロボットから送られてきた前記ユーザの発話に対する応答の出力時のユーザを撮影するカメラと、
    前記カメラで撮影されたユーザ画像を、前記サーバに送信する手段と
    を有し、
    前記サーバの応答収集手段は、
    前記ユーザ画像に基づいて、前記ユーザの発話に対する応答に対する反応を評価し、その評価と前記ユーザの発話に対する応答とを関連付けて、前記会話データベースに登録する
    請求項1に記載のコミュニケーションシステム。
  3. 前記サーバは、
    会話の禁止用語が格納された禁止用語データベースと、
    前記禁止用語データベースを参照し、前記他のユーザのロボットから送られてきた前記ユーザの発話に対する応答が禁止用語を含むか否かを判断し、禁止用語を含む場合に、前記ユーザの発話に対する応答を削除、または、一部を変換するフィルタリング手段と
    を有する請求項1又は請求項2に記載のコミュニケーションシステム。
  4. 前記サーバは、
    前記ロボットを所有するユーザの属性情報を記憶したユーザ属性情報データベースと、
    前記ユーザ属性情報データベースを参照し、ユーザの属性情報に基づいてユーザのマッチングを行い、マッチングしたユーザに対応するロボット間で接続を確立するマッチング制御手段と
    を有する請求項1から請求項3のいずれかに記載のコミュニケーションシステム。
  5. ユーザ側に設置される複数のロボットの信号の送受信を管理する接続管理手段と、
    会話に用いられる問いおよび回答の集合を保存する会話データベースと、
    前記ユーザの発話に対する応答を、前記会話データベースを参照して検索又は生成し、前記接続管理手段を介して前記ロボットに送信する会話エンジンと、
    前記会話エンジンが前記ユーザの発話に対する応答を検索又は生成できない場合、前記接続管理手段を介して、前記ユーザの発話を前記ユーザ以外の他のユーザの少なくとも一つ以上のロボットに送信し、前記他のユーザのロボットから送られてきた前記ユーザの発話に対する応答を、前記ユーザのロボットに送信する送受信手段と、
    前記他のユーザのロボットから送られてきた前記ユーザの発話に対する応答を、前記ユーザの発話に対する応答として、前記会話データベースに登録する応答収集手段と
    を有するサーバ。
  6. 前記サーバは、
    会話の禁止用語が格納された禁止用語データベースと、
    前記禁止用語データベースを参照し、前記他のユーザのロボットから送られてきた前記ユーザの発話に対する応答が禁止用語を含むか否かを判断し、禁止用語を含む場合に、前記ユーザの発話に対する応答を削除、または、一部を変換するフィルタリング手段と
    を有する請求項5に記載のサーバ。
  7. 前記サーバは、
    前記ロボットを所有するユーザの属性情報を記憶したユーザ属性情報データベースと、
    前記ユーザ属性情報データベースを参照し、ユーザの属性情報に基づいてユーザのマッチングを行い、マッチングしたユーザに対応するロボット間で接続を確立するマッチング制御手段と
    を有する請求項5又は請求項6に記載のコミュニケーションシステム。
  8. サーバであって、
    ユーザ側に設置される複数のロボットの信号の送受信を管理する接続管理手段と、
    前記接続管理手段を介して、前記ユーザの発話を前記ユーザ以外の他のユーザの少なくとも一つ以上のロボットに送信し、前記他のユーザのロボットから送られてきた前記ユーザの発話に対する応答を、前記ユーザのロボットに送信する送受信手段と、
    前記ユーザの発話に対する応答の出力時のユーザを撮影したユーザ画像を受信する手段と、
    前記ユーザ画像に基づいて、前記ユーザの発話に対する応答に対する反応を評価する評価手段と、
    前記評価と、前記ユーザの発話と、前記ユーザの発話に対する応答とを関連付けて、会話データベースに登録する応答収集手段と
    を有するサーバ。
  9. ユーザ側に設置される第1のロボットは、ユーザの発話を集音し、集音されたユーザの発話を、ネットワークを通じてサーバに送信し、
    前記サーバは、前記ユーザの発話を受信し、前記ユーザの発話に対する応答を、会話データベースを参照して検索又は生成し、前記第1のロボットに送信し、
    前記サーバは、前記ユーザの発話を受信し、前記ユーザの発話に対する応答を、会話データベースを参照して検索又は生成できない場合、前記ユーザの発話を前記ユーザ以外の他のユーザの少なくとも一つ以上の第2のロボットに送信し、
    前記サーバは、第2のロボットから送信された前記ユーザの発話に対する応答を受信し、前記第1のロボットに送信し、
    前記サーバは、前記第2のロボットから送信された前記ユーザの発話に対する応答を、前記ユーザの発話に対する応答として、会話データベースに登録し、
    前記第1のロボットは、前記ユーザの発話に対する応答を受信し、前記ユーザの発話に対する応答を、前記ロボットの発話として編集して出力する
    コミュニケーション方法。
  10. 前記第1のロボットは、前記ユーザの発話に対する応答の出力時のユーザを撮影し、前記撮影されたユーザ画像を、前記サーバに送信し、
    前記サーバは、前記ユーザ画像に基づいて、前記ユーザの発話に対する応答に対する反応を評価し、その評価と前記ユーザの発話に対する応答とを関連付けて、前記会話データベースに登録する
    請求項9に記載のコミュニケーション方法。
  11. 前記サーバは、禁止用語データベースを参照し、第2のロボットから送信された前記ユーザの発話に対する応答に禁止用語が含まれているか否かを判断し、禁止用語を含む場合に、前記ユーザの発話に対する応答を削除、または、一部を変換する
    請求項9又は請求項10に記載のコミュニケーション方法。
  12. ユーザ側に設置される第1のロボットは、ユーザの発話を集音し、集音されたユーザの発話を、ネットワークを通じてサーバに送信し、
    前記サーバは、前記ユーザの発話を受信し、前記ユーザの発話を前記ユーザ以外の他のユーザの少なくとも一つ以上の第2のロボットに送信し、
    前記サーバは、第2のロボットから送信された前記ユーザの発話に対する応答を受信し、前記第1のロボットに送信し、
    前記第1のロボットは、受信したユーザの発話に対する応答を出力し、
    前記第1のロボットは、前記ユーザの発話に対する応答の出力時のユーザを撮影し、ユーザ画像を前記サーバに送信し、
    前記サーバは、前記ユーザ画像に基づいて、前記ユーザの発話に対する応答に対する反応を評価し、
    前記サーバは、前記評価と、前記ユーザの発話と、前記ユーザの発話に対する応答とを関連付けて、会話データベースに登録する
    コミュニケーション方法。
JP2016081671A 2016-04-15 2016-04-15 コミュニケーションシステム、サーバ及びコミュニケーション方法 Pending JP2017191531A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016081671A JP2017191531A (ja) 2016-04-15 2016-04-15 コミュニケーションシステム、サーバ及びコミュニケーション方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016081671A JP2017191531A (ja) 2016-04-15 2016-04-15 コミュニケーションシステム、サーバ及びコミュニケーション方法

Publications (1)

Publication Number Publication Date
JP2017191531A true JP2017191531A (ja) 2017-10-19

Family

ID=60085234

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016081671A Pending JP2017191531A (ja) 2016-04-15 2016-04-15 コミュニケーションシステム、サーバ及びコミュニケーション方法

Country Status (1)

Country Link
JP (1) JP2017191531A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190106887A (ko) * 2019-08-28 2019-09-18 엘지전자 주식회사 정보 제공 방법 및 정보 제공 장치
WO2019244715A1 (ja) 2018-06-21 2019-12-26 Tradfit株式会社 プログラム、情報処理方法、情報処理装置および情報処理システム
JP2019220022A (ja) * 2018-06-21 2019-12-26 カシオ計算機株式会社 対話装置、対話装置制御方法及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10124086A (ja) * 1996-10-25 1998-05-15 Meidensha Corp 音声対話システム
JP2005196645A (ja) * 2004-01-09 2005-07-21 Nippon Hoso Kyokai <Nhk> 情報提示システム、情報提示装置、及び情報提示プログラム
US20080114837A1 (en) * 2006-11-10 2008-05-15 Microsoft Corporation On-Line Virtual Robot (Bot) Security Agent
US20090319627A1 (en) * 2008-06-23 2009-12-24 Samsung Electronics Co., Ltd. System and method to provide services based on network
JP2013114411A (ja) * 2011-11-28 2013-06-10 Naomichi Nakamura 行動共有システム

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10124086A (ja) * 1996-10-25 1998-05-15 Meidensha Corp 音声対話システム
JP2005196645A (ja) * 2004-01-09 2005-07-21 Nippon Hoso Kyokai <Nhk> 情報提示システム、情報提示装置、及び情報提示プログラム
US20080114837A1 (en) * 2006-11-10 2008-05-15 Microsoft Corporation On-Line Virtual Robot (Bot) Security Agent
WO2008091421A2 (en) * 2006-11-10 2008-07-31 Microsoft Corporation On-line virtual robot (bot) security agent
KR20090085057A (ko) * 2006-11-10 2009-08-06 마이크로소프트 코포레이션 온라인 가상 로봇 보안 대리인의 컴퓨터 구현 방법 및 컴퓨터 판독 가능 매체
CN101536005A (zh) * 2006-11-10 2009-09-16 微软公司 在线虚拟机器人安全代理
JP2010509679A (ja) * 2006-11-10 2010-03-25 マイクロソフト コーポレーション オンライン・バーチャル・ロボット(bot)またはセキュリティ・エージェント
US20090319627A1 (en) * 2008-06-23 2009-12-24 Samsung Electronics Co., Ltd. System and method to provide services based on network
EP2139214A1 (en) * 2008-06-23 2009-12-30 Samsung Electronics Co., Ltd. System and method to provide services based on network
KR20090132704A (ko) * 2008-06-23 2009-12-31 삼성전자주식회사 네트워크 기반의 서비스 제공 시스템 및 방법
JP2010003288A (ja) * 2008-06-23 2010-01-07 Samsung Electronics Co Ltd ネットワーク基盤のサービス提供システム及び方法
JP2013114411A (ja) * 2011-11-28 2013-06-10 Naomichi Nakamura 行動共有システム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019244715A1 (ja) 2018-06-21 2019-12-26 Tradfit株式会社 プログラム、情報処理方法、情報処理装置および情報処理システム
JP2019220022A (ja) * 2018-06-21 2019-12-26 カシオ計算機株式会社 対話装置、対話装置制御方法及びプログラム
JP7172168B2 (ja) 2018-06-21 2022-11-16 カシオ計算機株式会社 対話装置、対話装置制御方法及びプログラム
KR20190106887A (ko) * 2019-08-28 2019-09-18 엘지전자 주식회사 정보 제공 방법 및 정보 제공 장치
KR102658691B1 (ko) * 2019-08-28 2024-04-17 엘지전자 주식회사 정보 제공 방법 및 정보 제공 장치

Similar Documents

Publication Publication Date Title
CN110049270B (zh) 多人会议语音转写方法、装置、***、设备及存储介质
CN110415686B (zh) 语音处理方法、装置、介质、电子设备
JP6465077B2 (ja) 音声対話装置および音声対話方法
EP3254453B1 (en) Conference segmentation based on conversational dynamics
EP3254478B1 (en) Scheduling playback of audio in a virtual acoustic space
JP6042015B1 (ja) オンライン面接評価装置、方法およびプログラム
JP6084654B2 (ja) 音声認識装置、音声認識システム、当該音声認識システムで使用される端末、および、話者識別モデルを生成するための方法
JP6469252B2 (ja) アカウント追加方法、端末、サーバ、およびコンピュータ記憶媒体
KR102276951B1 (ko) 목소리 및 얼굴 안면 감정값의 산출 방법 및 이를 이용한 인공지능 스피커의 출력 방법
JP2020034895A (ja) 応答方法及び装置
US20200065924A1 (en) Idea assessment and landscape mapping
JP4469867B2 (ja) コミュニケーションの状況を管理する装置、方法およびプログラム
CN110570847A (zh) 一种多人场景的人机交互***及方法
JP2017191531A (ja) コミュニケーションシステム、サーバ及びコミュニケーション方法
KR102383574B1 (ko) 딥러닝을 이용한 음성 대화 서비스 시스템 및 방법
JP7055327B2 (ja) 会話収集装置、会話収集システム及び会話収集方法
JP2022531994A (ja) 人工知能ベースの会話システムの生成および動作
EP4093005A1 (en) System method and apparatus for combining words and behaviors
JP2020077272A (ja) 会話システムおよび会話プログラム
CN112435669B (zh) 一种机器人多轮对话语音交互方法、***和终端设备
KR102605178B1 (ko) 가족 관계에 기초하여 음성 데이터를 생성하는 장치, 방법 및 컴퓨터 프로그램
JP2017191390A (ja) コミュニケーションシステム、会話ログ収集システム、サーバ及びコミュニケーション方法
CN114514576A (zh) 数据处理方法、装置和存储介质
CN111324719A (zh) 用于法律咨询的模糊识别***
JP2020201748A (ja) 発話生成装置、発話生成方法及び発話生成プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190911

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200318