JP2022102305A - エージェント表示方法、プログラム、及びエージェント表示システム - Google Patents
エージェント表示方法、プログラム、及びエージェント表示システム Download PDFInfo
- Publication number
- JP2022102305A JP2022102305A JP2020216963A JP2020216963A JP2022102305A JP 2022102305 A JP2022102305 A JP 2022102305A JP 2020216963 A JP2020216963 A JP 2020216963A JP 2020216963 A JP2020216963 A JP 2020216963A JP 2022102305 A JP2022102305 A JP 2022102305A
- Authority
- JP
- Japan
- Prior art keywords
- agent
- user
- agents
- answer
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 230000004044 response Effects 0.000 claims description 36
- 230000008569 process Effects 0.000 claims description 10
- 230000008520 organization Effects 0.000 claims description 6
- 230000010365 information processing Effects 0.000 claims description 4
- 238000012545 processing Methods 0.000 claims description 4
- 230000004397 blinking Effects 0.000 claims description 3
- 239000003795 chemical substances by application Substances 0.000 description 289
- 238000004891 communication Methods 0.000 description 18
- 239000013598 vector Substances 0.000 description 17
- 230000004048 modification Effects 0.000 description 16
- 238000012986 modification Methods 0.000 description 16
- 230000015654 memory Effects 0.000 description 9
- 238000010586 diagram Methods 0.000 description 5
- 238000011160 research Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000007726 management method Methods 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Human Computer Interaction (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】ユーザにとって価値の高い回答を抜け漏れなく提示できる可能性を高めつつ、ユーザに回答確認の煩わしさを与え難くできるエージェント表示方法等を提供する。【解決手段】ユーザの発話文に対して応答する複数のエージェントを同時に表示するエージェント表示方法であって、前記ユーザの発話文を取得する発話文取得ステップS12と、質問文と当該質問文に対応する回答文とが記憶されたエージェントごとのデータベースから、前記ユーザの発話文に対する前記複数のエージェントそれぞれの回答文を選択する回答選択ステップS14と、前記複数のエージェントを含む画面を表示するエージェント表示ステップS17と、を備え、前記エージェント表示ステップは、前記複数のエージェントのうち前記ユーザに優先的に確認させたいエージェントを、他のエージェントより強調した態様で表示する。【選択図】図3
Description
本発明は、エージェント表示方法、プログラム、及びエージェント表示システムに関し、特に、ユーザにとって価値の高い回答を抜け漏れなく提示できる可能性を高めつつ、ユーザに回答確認の煩わしさを与え難くできるエージェント表示方法、プログラム、及びエージェント表示システムに関する。
問い合わせ対応を効率化することを目的としてFAQ(Frequently Asked Questions)チャットボットシステムが導入されている。チャットボット(以下、エージェントと呼ぶ)はユーザの質問に対して、FAQのDB(データベース)から、あるロジックを用いて回答を検索し、表示するシステムである。
複数のエージェントのうち所定条件を満たすエージェント(類似度が所定閾値以上で且つ最も高いユーザ想定テキストを含むエージェント)を、ユーザ発話テキストに対して応答するエージェントとして表示するエージェント管理方法が例えば特許文献1に記載されている。
しかしながら、特許文献1に記載のエージェント管理方法においては、ユーザ発話テキストに対して応答するエージェントの回答を確認することができるものの、ユーザ発話テキストに対して応答するエージェント以外の回答(例えば、ユーザ発話テキストに対して応答するエージェントの回答よりユーザにとって価値の高い回答)を、ユーザが確認する機会が無くなってしまうという問題がある。
これに対して、複数のエージェント(それぞれの回答を含む)を同時に表示することが考えられるが、このようにすると、ユーザは都度、複数の回答を確認する手間が発生してしまうという問題がある。
本発明は、このような問題点を解決するためになされたものであり、ユーザにとって価値の高い回答を抜け漏れなく提示できる可能性を高めつつ、ユーザに回答確認の煩わしさを与え難くできるエージェント表示方法、プログラム、及びエージェント表示システムを提供するものである。
本発明にかかるエージェント表示方法は、ユーザの発話文に対して応答する複数のエージェントを同時に表示するエージェント表示方法であって、前記ユーザの発話文を取得する発話文取得ステップと、質問文と当該質問文に対応する回答文とが記憶されたエージェントごとのデータベースから、前記ユーザの発話文に対する前記複数のエージェントそれぞれの回答文を選択する回答選択ステップと、前記複数のエージェントを含む画面を表示するエージェント表示ステップと、を備え、前記エージェント表示ステップは、前記複数のエージェントのうち前記ユーザに優先的に確認させたいエージェントを、他のエージェントより強調した態様で表示する。
このような構成により、ユーザにとって価値の高い回答を抜け漏れなく提示できる可能性を高めつつ、ユーザに回答確認の煩わしさを与え難くできる。
ユーザにとって価値の高い回答を抜け漏れなく提示できる可能性を高めることができるのは、複数のエージェントそれぞれの回答文が表示されることによるものである。ユーザに回答確認の煩わしさを与え難くできるのは、ユーザに優先的に確認させたいエージェントが他のエージェントより強調した態様で表示されることによるものである。
ここで、前記画面は、前記ユーザに優先的に確認させたいエージェントを象徴するエージェント画像、及び前記他のエージェントを象徴するエージェント画像を含み、前記ユーザに優先的に確認させたいエージェントを象徴するエージェント画像は、前記他のエージェントを象徴するエージェント画像より大きく表示されてもよい。
また、前記画面は、第1表示領域、第2表示領域を含み、前記第1表示領域は、前記第2表示領域より大きく、前記ユーザに優先的に確認させたいエージェントは、前記第1表示領域に表示され、前記他のエージェントは、前記第2表示領域に表示されてもよい。
また、前記画面は、前記ユーザに優先的に確認させたいエージェントの回答文、及び前記他のエージェントの回答文を含み、前記ユーザに優先的に確認させたいエージェントの回答文は、前記他のエージェントの回答文より大きく表示されてもよい。
また、前記ユーザに優先的に確認させたいエージェントは、前記他のエージェントより濃く表示されてもよい。
また、前記他のエージェントは、前記ユーザに優先的に確認させたいエージェントを取り囲んだ状態で表示されてもよい。
また、前記画面は、さらに、前記ユーザに優先的に確認させたいエージェントの近傍に付加的に表示される付加表示を含んでいてもよい。
また、前記ユーザに優先的に確認させたいエージェントは、点滅表示されてもよい。
また、前記ユーザに優先的に確認させたいエージェントは動画として表示され、前記他のエージェントは静止画として表示されてもよい。
また、前記画面は、さらに、前記複数のエージェントそれぞれが所属する組織を表す表示を含んでいてもよい。
また、前記回答選択ステップは、前記データベースから、前記ユーザの発話文と前記データベースに記憶された前記質問文との類似度に基づいて、前記ユーザの発話文に対する前記複数のエージェントそれぞれの回答文を選択してもよい。
また、前記回答選択ステップは、前記データベースから、前記ユーザの発話文と前記データベースに記憶された前記質問文との類似度、及び当該エージェントの特徴に基づいて、前記ユーザの発話文に対する前記複数のエージェントそれぞれの回答文を選択してもよい。
また、前記ユーザに優先的に確認させたいエージェントの回答文は、前記回答選択ステップにおいて選択された前記複数のエージェントそれぞれの回答文のうち前記類似度が最も高い質問文に対応する回答文であってもよい。
また、前記ユーザの発話文に対する前記複数のエージェントそれぞれの回答文は概要であってもよい。
また、前記エージェントに対する前記ユーザの選択を受け付ける選択受付ステップと、前記エージェントのうち前記ユーザが選択したエージェントの回答文の詳細を表示するステップと、をさらに備えていてもよい。
本発明にかかるプログラムは、少なくとも1つのプロセッサを備えた情報処理装置に、ユーザの発話文を取得する発話文取得処理と、質問文と当該質問文に対応する回答文とが記憶されたエージェントごとのデータベースから、前記ユーザの発話文に対する前記複数のエージェントそれぞれの回答文を選択する回答選択処理と、前記複数のエージェントを含む画面を表示するエージェント表示処理と、を実行させるためのプログラムであって、前記エージェント表示処理は、前記複数のエージェントのうち前記ユーザに優先的に確認させたいエージェントを、他のエージェントより強調した態様で表示するプログラムである。
本発明にかかるエージェント表示システムは、ユーザの発話文に対して応答する複数のエージェントを同時に表示するエージェント表示システムであって、前記ユーザの発話文を取得する発話文取得部と、質問文と当該質問文に対応する回答文とが記憶されたエージェントごとのデータベースから、前記ユーザの発話文に対する前記複数のエージェントそれぞれの回答文を選択する回答選択部と、前記複数のエージェントを含む画面を表示するエージェント表示部と、を備え、前記エージェント表示部は、前記複数のエージェントのうち前記ユーザに優先的に確認させたいエージェントを、他のエージェントより強調した態様で表示する。
このような構成により、ユーザにとって価値の高い回答を抜け漏れなく提示できる可能性を高めつつ、ユーザに回答確認の煩わしさを与え難くできる。
ユーザにとって価値の高い回答を抜け漏れなく提示できる可能性を高めることができるのは、複数のエージェントそれぞれの回答文が表示されることによるものである。ユーザに回答確認の煩わしさを与え難くできるのは、ユーザに優先的に確認させたいエージェントが他のエージェントより強調した態様で表示されることによるものである。
本発明により、ユーザにとって価値の高い回答を抜け漏れなく提示できる可能性を高めつつ、ユーザに回答確認の煩わしさを与え難くできるエージェント表示方法、プログラム、及びエージェント表示システムを提供することができる。
以下、本発明の一実施形態であるエージェント表示システム1について添付図面を参照しながら説明する。各図において対応する構成要素には同一の符号が付され、重複する説明は省略される。
図1は、エージェント表示システム1の概略構成図である。
まず、エージェント表示システム1の概略について説明する。
エージェント表示システム1は、ユーザの発話文に対して応答する複数のエージェントを同時に表示するシステムである。エージェント表示システム1においては、複数のエージェントそれぞれを象徴するエージェント画像、及びユーザの発話文に対する複数のエージェントそれぞれに対応する複数のエージェントの回答(例えば、概要)等を含む画面(例えば、図6に示す画面G1参照)が表示される。その際、複数のエージェントのうちユーザに優先的に確認させたいエージェントは、他のエージェントより強調した態様で表示される。例えば、図6に示すエージェント(例えば、エージェント画像11b3_AG1)のように、他のエージェント(例えば、エージェント画像11b3_AG2、11b3_AG2)より大きく表示される。複数のエージェント(エージェント画像)のいずれかがユーザにより選択(例えば、マウスオーバー)された場合、当該選択されたエージェントの回答(例えば、詳細)が表示される。
次に、エージェント表示システム1の詳細について説明する。
図1に示すように、エージェント表示システム1は、サーバ装置10、ユーザ端末20を備えている。サーバ装置10、及びユーザ端末20は、ネットワークNW(例えば、インターネット)を介して互いに接続されており、ネットワークNWを介して互いに通信することができる。
<サーバ装置10の構成例>
まず、サーバ装置10の構成例について説明する。
まず、サーバ装置10の構成例について説明する。
サーバ装置10は、例えば、パーソナルコンピュータ等の情報処理装置である。サーバ装置は、物理サーバであってもよいし、ネットワークNW上の仮想サーバであってもよい。サーバ装置10は、記憶部11、制御部12、メモリ13、通信部14を備えている。
記憶部11は、例えば、ハードディスク装置やROM(Read Only Memory)等の不揮発性の記憶部である。記憶部11は、プログラム記憶部11a、エージェント情報記憶部11bを備えている。
プログラム記憶部11aには、制御部12(プロセッサ)により実行されるプログラムが記憶されている。
エージェント情報記憶部11bには、複数のエージェントそれぞれに関する情報(エージェント情報)が記憶されている。
図2は、エージェント情報記憶部11bに記憶されている複数のエージェントそれぞれに関する情報(エージェント情報)の一例である。図2中、3つのエージェントAG1~AG3それぞれに関する情報(エージェント情報)を例示している。
図2に示すように、エージェントAG1のエージェント情報は、FAQ-DB11b1_AG1、エージェントの特徴11b2_AG1、及びエージェント画像11b3_AG1を含む。エージェントAG2、AG3それぞれのエージェント情報も同様である。なお、エージェントの特徴11b2_AG1~11b2_AG3は省略してもよい。以下、FAQ-DB11b1_AG1~11b1_AG3を特に区別しない場合、FAQ-DB11b1と記載する。また、エージェントの特徴11b2_AG1~11b2_AG3を特に区別しない場合、エージェントの特徴11b2と記載する。また、エージェント画像11b3_AG1~11b2_AG3を特に区別しない場合、エージェント画像11b3と記載する。
FAQ-DB11b1には、「質問文」及び「回答文」が項目として記憶されている。なお、図示しないが、FAQ-DB11b1には、「質問文」及び「回答文」に加え、「概要」が項目として記憶されている場合がある。
「質問文」には、例えば、質問文(例えば、テキストデータ)及びその文ベクトルが記憶される。「回答文」には、「質問文」に対応する回答文(例えば、テキストデータ)が記憶される。「概要」には、「回答文」の概要(要約)が記憶される。「概要」は、事前に手動で作成(人が作成)してもよいし、動的に機械が生成してもよい。動的に機械が生成する場合、例えば、FAQ-DB11b1に記憶された「質問文」を入力として、seq2seqのDNN等の機械学習手法を用いて、都度「概要」を生成してもよい。
エージェントの特徴11b2は、例えば、エージェントの特徴を表す特徴語である。エージェントの特長は、事前に人手で定義してもよいし、FAQ-DB11b1(「回答文」に記憶された回答文)からtf(Term Frequency)-idf(Inverse Document Frequency)等の手法を用いて機械的に作成してもよい。
制御部12は、図示しないが、プロセッサを備えている。プロセッサは、例えば、CPU(Central Processing Unit)である。プロセッサは、1つの場合もあるし、複数の場合もある。プロセッサは、記憶部11(プログラム記憶部11a)からメモリ13(例えば、RAM(Random Access Memory))に読み込まれたプログラムを実行することで、ユーザ発話文取得部12a、ユーザ発話解析部12b、応答選択部12cとして機能する。これらの一部又は全部は、ハードウェアで実現してもよい。
ユーザ発話文取得部12aは、ユーザ端末20の入力部25から入力されるユーザの発話文(テキストデータ)を取得する。
ユーザ発話解析部12bは、ユーザ発話文取得部12aが取得したユーザの発話文(テキストデータ)を解析し、回答するためのスコア付けを行う。このユーザ発話解析部12bの動作例については後述する。
応答選択部12cは、質問文と当該質問文に対応する回答文とが記憶されたエージェントごとのデータベース(FAQ-DB11b1_AG1~11b1_AG3)から、ユーザ発話文取得部12aが取得したユーザの発話文に対する複数のエージェントそれぞれの回答文を選択する。具体的には、応答選択部12cは、データベース(FAQ-DB11b1_AG1~11b1_AG3)から、ユーザ発話文取得部12aが取得したユーザの発話文とデータベース(FAQ-DB11b1_AG1~11b1_AG3)に記憶された質問文との類似度(スコア)に基づいて、ユーザの発話文に対する複数のエージェントそれぞれの回答文を選択する。この応答選択部12cの動作例については後述する。
通信部14は、ユーザ端末20との間でネットワークNW(例えば、インターネット)を介して通信する通信装置である。例えば、通信部14は、ユーザ端末20から送信されるユーザの発話文を受信する。また、通信部14は、ユーザ端末20に対して、複数のエージェントを含む画面(例えば、図6に示す画面G1参照)を表示させるための画面表示用データを送信する。この画面表示用データは、応答選択部12cが選択した複数のエージェントそれぞれの回答文、複数のエージェントそれぞれを象徴するエージェント画像、複数のエージェントそれぞれが所属する組織を表す表示を含む。
<ユーザ端末20の構成例>
次に、ユーザ端末20の構成例について説明する。
次に、ユーザ端末20の構成例について説明する。
ユーザ端末20は、例えば、パーソナルコンピュータ等の情報処理装置である。図1に示すように、ユーザ端末20は、記憶部21、制御部22、メモリ23、通信部24、入力部25、表示部26を備えている。
記憶部21は、例えば、ハードディスク装置やROM(Read Only Memory)等の不揮発性の記憶部である。記憶部21は、プログラム記憶部21aを備えている。
プログラム記憶部21aには、制御部22(プロセッサ)により実行されるプログラムが記憶されている。
制御部22は、図示しないが、プロセッサを備えている。プロセッサは、例えば、CPU(Central Processing Unit)である。プロセッサは、1つの場合もあるし、複数の場合もある。プロセッサは、記憶部21(プログラム記憶部21a)からメモリ23(例えば、RAM(Random Access Memory))に読み込まれたプログラムを実行することで、画面表示部22aとして機能する。これは、ハードウェアで実現してもよい。
画面表示部22aは、サーバ装置10から送信される画面表示用データを通信部24が受信した場合、表示部26に、当該受信した画面表示用データに基づいて、複数のエージェントを含む画面(例えば、図6に示す画面G1参照)を表示部26に表示する。その際、画面表示部22aは、複数のエージェントのうち前記ユーザに優先的に確認させたいエージェントを、他のエージェントより強調した態様で表示する。この画面表示部22aの動作例については後述する。
通信部24は、サーバ装置10との間でネットワークNW(例えば、インターネット)を介して通信する通信装置である。例えば、通信部24は、サーバ装置10から送信される画面表示用データを受信する。また、通信部24は、サーバ装置10に対して、入力部25から入力されたユーザの発話文を送信する。
入力部25は、ユーザの発話文を入力する入力部である。入力部25は、例えば、キーボード、マウス等の入力装置である。入力部25は、マイクであってもよい。入力部25がマイクの場合、入力されたユーザの発話文は、音声認識処理によりテキストデータに変換される。
表示部26は、例えば、液晶ディスプレイ等の表示装置である。
次に、図3、図4を用いて、エージェント表示システム1の動作例について説明する。図3、図4は、エージェント表示システム1の動作例のシーケンス図である。以下、図2に示すように、3つのエージェントAG1~AG3が記憶部11(エージェント情報記憶部11b)に記憶されている例について説明する。
まず、ユーザがユーザ端末20の入力部25から発話文を入力する(ステップS10)。ここでは、ユーザの発話文として「清算はどうやるの?」(テキストデータ)が入力されたものとする。
次に、ユーザ端末20(通信部24)は、サーバ装置10に対して、ステップS10で入力されたユーザの発話文を送信する(ステップS11)。
次に、サーバ装置10(ユーザ発話文取得部12a)は、ユーザ端末20から送信されるユーザの発話文を取得する(ステップS12)。
次に、サーバ装置10(ユーザ発話解析部12b)は、ユーザ発話解析を実行する(ステップS13)。
ここで、ユーザ発話解析部12bの動作例(ユーザ発話解析)について説明する。
図5は、ユーザ発話解析部12bの動作例(ユーザ発話解析)のフローチャートである。
まず、ユーザ発話解析部12bは、ステップS12で取得したユーザの発話文(生データであるテキストデータ)に対してテキスト整形を実行する(ステップS131)。テキスト整形は、例えば、全角/半角を統一する処理、特定の単語を置換する処理を含む。
次に、ユーザ発話解析部12bは、ステップS131でテキスト整形されたユーザ発話文を単語分割し(ステップS132)、単語ベクトル辞書(図示せず)を参照して、各単語の単語ベクトルを取得する(ステップS133)。図示しないが、単語ベクトル辞書は、各単語の意味をベクトルで表現したものであり、例えば、記憶部11に記憶されている。
次に、ユーザ発話解析部12bは、ステップS133で取得した単語ベクトルから文ベクトルを算出する(ステップS134)。文ベクトルは、文全体をベクトルで表現したものである。文ベクトルは、例えば、単語ベクトルの要素ごとに平均することにより算出してもよいし、LSTM(Long short-term memory)等のDNN(Deep Neural Network)を用いて算出してもよい。
次に、ユーザ発話解析部12bは、ステップS134で算出された文ベクトル(ユーザの発話文の文ベクトル)とFAQ-DB11b1に記憶された各々の質問文の文ベクトルとのスコアを算出する(ステップS135)。スコアは、ユーザの発話文とFAQ-DB11b1に記憶された各々の質問文との類似度を表す指標(数値)である。以下、スコアのことを類似度と呼ぶことがある。スコアは、例えば、ベクトル間の距離をコサイン距離によって算出してもよいし、機械学習の分類モデル(例えば、SVM(Support Vector machine)、CNN(Convolutional Neural Network))を用いて算出してもよい。その際、エージェントの特徴11b2を用いてもよい。
上記ステップS135の処理は、エージェントごとに実行される。例えば、エージェントAG1については、ユーザの発話文(ここでは、「清算はどうやるの?」の文ベクトル)とエージェントAG1のFAQ-DB11b1_AG1(図2参照)に記憶された各々の質問文の文ベクトルとのスコアが算出される。エージェントAG2、AG3についても同様である。
図3に戻り、エージェント表示システム1の動作例について引き続き説明する。
次に、サーバ装置10(応答選択部12c)は、データベース(FAQ-DB11b1_AG1~11b1_AG3)から、ユーザ発話文取得部12aが取得したユーザの発話文とデータベース(FAQ-DB11b1_AG1~11b1_AG3)に記憶された質問文との類似度(スコア)に基づいて、ユーザの発話文に対する複数のエージェントそれぞれの回答文を選択する(ステップS14)。例えば、エージェントAG1については、応答選択部12cは、FAQ-DB11b1_AG1から、ユーザの発話文とFAQ-DB11b1_AG1に記憶された各々の質問文との類似度に基づいて、ユーザの発話文に対する回答文(最大のスコアを持つ回答文)を選択する。エージェントAG2、AG3についても同様である。
ここでは、エージェントAG1については、FAQ-DB11b1_AG1から、ユーザの発話文に対する最大のスコアを持つ回答文(概要)として「出張精算?」(スコア:0.8)が選択されたものとする。また、エージェントAG2については、FAQ-DB11b1_AG2から、ユーザの発話文に対する最大のスコアを持つ回答文(概要)として「試験研究費の精算?」(スコア:0.7)が選択されたものとする。また、エージェントAG3については、FAQ-DB11b1_AG3から、ユーザの発話文に対する最大のスコアを持つ回答文(概要)として「部の懇親会の清算?」(スコア:0.6)が選択されたものとする。
また、サーバ装置10(応答選択部12c)は、各エージェントが持つ最大スコアを元にエージェント及び回答を降順に並び替える。
次に、サーバ装置10(通信部14)は、ユーザ端末20に対して、複数のエージェントを含む画面(例えば、図6に示す画面G1参照)を表示させるための画面表示用データを送信する(ステップS15)。この画面表示用データは、応答選択部12cが選択した複数のエージェントそれぞれの回答文(例えば、エージェントAG1の回答文「出張精算?」、エージェントAG2の回答文「試験研究費の精算?」、エージェントAG3の回答文「部の懇親会の清算?」)、複数のエージェントそれぞれを象徴するエージェント画像(例えば、複数のエージェントAG1~AG3それぞれを象徴するエージェント画像11b3_AG1~11b3_AG3)、複数のエージェントそれぞれが所属する組織(例えば、「出張旅費担当」、「経費担当」、「懇親会担当」)を表す表示を含む。
次に、ユーザ端末20(通信部24)は、サーバ装置10から送信される画面表示用データを受信する(ステップS16)。
次に、ユーザ端末20(画面表示部22a)は、ステップS16で受信した画面表示用データに基づいて、表示部26に、複数のエージェントを含む画面(例えば、図6に示す画面G1参照)を表示する(ステップS17)。
この複数のエージェントを含む画面は、応答選択部12cが選択した複数のエージェントそれぞれの回答文(例えば、エージェントAG1の回答文「出張精算?」、エージェントAG2の回答文「試験研究費の精算?」、エージェントAG3の回答文「部の懇親会の清算?」)、複数のエージェントそれぞれを象徴するエージェント画像(例えば、複数のエージェントAG1~AG3それぞれを象徴するエージェント画像11b3_AG1~11b3_AG3)、複数のエージェントそれぞれが所属する組織(例えば、「出張旅費担当」、「経費担当」、「懇親会担当」)を表す表示を含む。
その際、複数のエージェントのうちユーザに優先的に確認させたいエージェントは、他のエージェントより強調した態様で表示される。例えば、図6に示すエージェント(例えば、エージェント画像11b3_AG1)のように、他のエージェント(例えば、エージェント画像11b3_AG2、11b3_AG2)より大きく表示される。図6は、表示部26に表示される画面の一例である。換言すると、各エージェントが持つスコアの大きさによってエージェントの表示サイズが変更される。その際、各エージェントはスコアの順にソートされる。各エージェントは簡易的な表示形式で回答の概要を表示する。簡易的な表示のタイミングは常時表示、マウスオーバーのタイミングで表示、定時表示等、様々なタイミングが考えられる。
なお、ユーザに優先的に確認させたいエージェントとは、複数のエージェントのうち最大のスコアを持つ回答文に対応するエージェントのことである。ここでは、複数のエージェントAG1、AG2、AG3のうち最大のスコア(0.8)を持つ回答文「出張精算?」に対応するエージェントAG1がユーザに優先的に確認させたいエージェントである。他のエージェントとは、複数のエージェントのうちユーザに優先的に確認させたいエージェント以外のエージェントのことである。ここでは、ユーザに優先的に確認させたいエージェントAG1以外のエージェントAG2、AG3が他のエージェントである。
図4に戻り、エージェント表示システム1の動作例について引き続き説明する。
次に、ユーザ端末20は、上記画面に表示されている複数のエージェント(エージェント画像11b3_AG1~11b3_AG1)に対するユーザの選択を受け付ける(ステップS18)。
次に、複数のエージェント(エージェント画像11b3_AG1~11b3_AG1)のいずれかがユーザにより選択(例えば、マウスオーバー)された場合(ステップS19)、当該選択されたエージェントの回答(例えば、詳細)が表示部26に表示される(ステップS20)。
以上説明したように、本実施形態によれば、ユーザにとって価値の高い回答を抜け漏れなく提示できる可能性を高めつつ、ユーザに回答確認の煩わしさを与え難くできる。
ユーザにとって価値の高い回答を抜け漏れなく提示できる可能性を高めることができるのは、表示部26に複数のエージェントそれぞれの回答文が表示されることによるものである。ユーザに回答確認の煩わしさを与え難くできるのは、ユーザに優先的に確認させたいエージェントが他のエージェントより強調した態様で表示されることによるものである。
管理体制の簡素化や正答率の担保という観点から、エージェントの構築単位は部署レベルであり、各エージェントは独立に運用される場合がある。この場合、ユーザはそれぞれのエージェントを使い分けることが必要であった。
これに対して、本実施形態によれば、複数のエージェント(回答)が同時に表示され、1つのインタフェース(表示部26)に統一されるため、ユーザの負担(それぞれのエージェントを使い分ける負担)を軽減することができる。
また、本実施形態によれば、回答精度が向上する(ユーザは回答に辿り着きやすくなる)。すなわち、最初に提示されたエージェントの回答がユーザの意図通りの回答を提示しなかった場合でも他のエージェントの回答文もしくは概要を提示しているため、ユーザは自分の意図に沿う回答をもつエージェントを選択することができる。
また、本実施形態によれば、自然なインタラクション(エージェントの交代)を実現することができる。すなわち、本実施形態によれば、複数のエージェントが会話に参与している中で、ユーザが会話したいエージェントを自ら選択できることによってエージェントの選択理由が明らかであり、ユーザの認知的な負担を軽減することができる。
また、本実施形態によれば、他のエージェントが選択された場合にメイン画面の回答が誤っていたことを暗黙的に検知することができる(学習データへの利用が可能)。
また、本実施形態によれば、他のエージェントの回答を確認できることでユーザに新たな知識を提供することができる。すなわち、本実施形態によれば、ユーザは自分の質問に対する複数のエージェントの回答を一覧できるため、もともと意図していた内容ではない予備知識についても同時に獲得することができる。
次に変形例について説明する。
上記実施形態では、複数のエージェントのうちユーザに優先的に確認させたいエージェントを、他のエージェントより強調した態様で表示する例として、ユーザに優先的に確認させたいエージェント(例えば、エージェント画像11b3_AG1)を、他のエージェント(例えば、エージェント画像11b3_AG2、11b3_AG2)より大きく表示する例(図6参照)を説明したが、これに限らない。以下、複数のエージェントのうちユーザに優先的に確認させたいエージェントを、他のエージェントより強調した態様で表示する他の例(変形例)について説明する。
<変形例1>
図7は、表示部26に表示される画面の変形例1である。
図7は、表示部26に表示される画面の変形例1である。
例えば、図7に示すように、ユーザに優先的に確認させたいエージェントを象徴するエージェント画像(例えば、エージェントAG1を象徴するエージェント画像11b3_AG1)を、第1表示領域A1(メイン領域)に表示し、他のエージェントを象徴するエージェント画像(例えば、エージェントAG2、AG3を象徴するエージェント画像11b3_AG2、11b3_AG3)を、第2表示領域A2(サブ領域)に表示してもよい。その際、各エージェントはスコアの順にソートされる。各エージェントは簡易的な表示形式で回答の概要を表示する。簡易的な表示のタイミングは常時表示、マウスオーバーのタイミングで表示、定時表示等、様々なタイミングが考えられる。なお、第1表示領域A1は、第2表示領域A2より大きい。
<変形例2>
図8は、表示部26に表示される画面の変形例2である。
図8は、表示部26に表示される画面の変形例2である。
また例えば、図8に示すように、ユーザに優先的に確認させたいエージェントの回答文(例えば、エージェントAG1の回答文「出張精算?」)を、他のエージェントの回答文(例えば、エージェントAG2の回答文「試験研究費の精算?」、エージェントAG3の回答文「部の懇親会の清算?」)より大きく表示してもよい。換言すると、各エージェントが持つスコアの大きさによって回答の表示サイズが変更される。その際、各回答はスコアの順にソートされる。各回答はどのエージェントのものであるかが明示できるように表示される。
<変形例3>
また、図示しないが、ユーザに優先的に確認させたいエージェント(例えば、エージェントAG1)を、他のエージェント(例えば、エージェントAG2、AG3)より濃く表示してもよい。
また、図示しないが、ユーザに優先的に確認させたいエージェント(例えば、エージェントAG1)を、他のエージェント(例えば、エージェントAG2、AG3)より濃く表示してもよい。
<変形例4>
図9は、表示部26に表示される画面の変形例4である。
図9は、表示部26に表示される画面の変形例4である。
図9に示すように、他のエージェントを、ユーザに優先的に確認させたいエージェント(例えば、エージェントAG1を象徴するエージェント画像11b3AG1_AG1)を取り囲んだ状態で表示してもよい。
<変形例5>
図示しないが、表示部26に表示される画面は、さらに、ユーザに優先的に確認させたいエージェントの近傍に付加的に表示される付加表示を含んでいてもよい。付加表示は、文字、記号、図形等である。付加表示は、一つであってもよいし、複数であってもよい。付加表示は、動画であってもよいし、静止画であってもよい。
図示しないが、表示部26に表示される画面は、さらに、ユーザに優先的に確認させたいエージェントの近傍に付加的に表示される付加表示を含んでいてもよい。付加表示は、文字、記号、図形等である。付加表示は、一つであってもよいし、複数であってもよい。付加表示は、動画であってもよいし、静止画であってもよい。
<変形例6>
図示しないが、ユーザに優先的に確認させたいエージェント(例えば、エージェントAG1を象徴するエージェント画像11b3AG1_AG1)を、点滅表示してもよい。
図示しないが、ユーザに優先的に確認させたいエージェント(例えば、エージェントAG1を象徴するエージェント画像11b3AG1_AG1)を、点滅表示してもよい。
<変形例7>
図示しないが、表示部26に表示される画面において、ユーザに優先的に確認させたいエージェント(例えば、エージェントAG1を象徴するエージェント画像11b3AG1_AG1)を動画として表示し、他のエージェント(例えば、エージェントAG2、AG3を象徴するエージェント画像11b3AG1_AG2、11b3AG1_AG3)を静止画として表示してもよい。
図示しないが、表示部26に表示される画面において、ユーザに優先的に確認させたいエージェント(例えば、エージェントAG1を象徴するエージェント画像11b3AG1_AG1)を動画として表示し、他のエージェント(例えば、エージェントAG2、AG3を象徴するエージェント画像11b3AG1_AG2、11b3AG1_AG3)を静止画として表示してもよい。
<変形例8>
図9に示すように、複数のエージェントそれぞれが所属する組織を表す表示(例えば、「出張旅費担当」、「経費担当」、「懇親会担当」)は省略してもよい。
図9に示すように、複数のエージェントそれぞれが所属する組織を表す表示(例えば、「出張旅費担当」、「経費担当」、「懇親会担当」)は省略してもよい。
上記実施形態において、プログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
上記実施形態で示した数値は全て例示であり、これと異なる適宜の数値を用いることができるのは無論である。
上記実施形態はあらゆる点で単なる例示にすぎない。上記実施形態の記載によって本発明は限定的に解釈されるものではない。本発明はその精神または主要な特徴から逸脱することなく他の様々な形で実施することができる。
1…エージェント表示システム
10…サーバ装置
11…記憶部
11a…プログラム記憶部
11b…エージェント情報記憶部
11b1_AG1-11b1_AG3…FAQ-DB
11b2_AG1-11b2_AG3…エージェントの特徴
11b3_AG1-11b3_AG3…エージェント画像
12…制御部
12a…ユーザ発話文取得部
12b…ユーザ発話解析部
12c…応答選択部
13…メモリ
14…通信部
20…ユーザ端末
21…記憶部
21a…プログラム記憶部
22…制御部
22a…画面表示部
23…メモリ
24…通信部
25…入力部
26…表示部
A1…第1表示領域
A2…第2表示領域
AG1-AG3…エージェント
G1…画面
NW…ネットワーク
10…サーバ装置
11…記憶部
11a…プログラム記憶部
11b…エージェント情報記憶部
11b1_AG1-11b1_AG3…FAQ-DB
11b2_AG1-11b2_AG3…エージェントの特徴
11b3_AG1-11b3_AG3…エージェント画像
12…制御部
12a…ユーザ発話文取得部
12b…ユーザ発話解析部
12c…応答選択部
13…メモリ
14…通信部
20…ユーザ端末
21…記憶部
21a…プログラム記憶部
22…制御部
22a…画面表示部
23…メモリ
24…通信部
25…入力部
26…表示部
A1…第1表示領域
A2…第2表示領域
AG1-AG3…エージェント
G1…画面
NW…ネットワーク
Claims (17)
- ユーザの発話文に対して応答する複数のエージェントを同時に表示するエージェント表示方法であって、
前記ユーザの発話文を取得する発話文取得ステップと、
質問文と当該質問文に対応する回答文とが記憶されたエージェントごとのデータベースから、前記ユーザの発話文に対する前記複数のエージェントそれぞれの回答文を選択する回答選択ステップと、
前記複数のエージェントを含む画面を表示するエージェント表示ステップと、を備え、
前記エージェント表示ステップは、前記複数のエージェントのうち前記ユーザに優先的に確認させたいエージェントを、他のエージェントより強調した態様で表示するエージェント表示方法。 - 前記画面は、前記ユーザに優先的に確認させたいエージェントを象徴するエージェント画像、及び前記他のエージェントを象徴するエージェント画像を含み、
前記ユーザに優先的に確認させたいエージェントを象徴するエージェント画像は、前記他のエージェントを象徴するエージェント画像より大きく表示される請求項1に記載のエージェント表示方法。 - 前記画面は、第1表示領域、第2表示領域を含み、
前記第1表示領域は、前記第2表示領域より大きく、
前記ユーザに優先的に確認させたいエージェントは、前記第1表示領域に表示され、
前記他のエージェントは、前記第2表示領域に表示される請求項1に記載のエージェント表示方法。 - 前記画面は、前記ユーザに優先的に確認させたいエージェントの回答文、及び前記他のエージェントの回答文を含み、
前記ユーザに優先的に確認させたいエージェントの回答文は、前記他のエージェントの回答文より大きく表示される請求項1に記載のエージェント表示方法。 - 前記ユーザに優先的に確認させたいエージェントは、前記他のエージェントより濃く表示される請求項1に記載のエージェント表示方法。
- 前記他のエージェントは、前記ユーザに優先的に確認させたいエージェントを取り囲んだ状態で表示される請求項1に記載のエージェント表示方法。
- 前記画面は、さらに、前記ユーザに優先的に確認させたいエージェントの近傍に付加的に表示される付加表示を含む請求項1から6のいずれか1項に記載のエージェント表示方法。
- 前記ユーザに優先的に確認させたいエージェントは、点滅表示される請求項1に記載のエージェント表示方法。
- 前記ユーザに優先的に確認させたいエージェントは動画として表示され、
前記他のエージェントは静止画として表示される請求項1に記載のエージェント表示方法。 - 前記画面は、さらに、前記複数のエージェントそれぞれが所属する組織を表す表示を含む請求項1から9のいずれか1項に記載のエージェント表示方法。
- 前記回答選択ステップは、前記データベースから、前記ユーザの発話文と前記データベースに記憶された前記質問文との類似度に基づいて、前記ユーザの発話文に対する前記複数のエージェントそれぞれの回答文を選択する請求項1から10のいずれか1項に記載のエージェント表示方法。
- 前記回答選択ステップは、前記データベースから、前記ユーザの発話文と前記データベースに記憶された前記質問文との類似度、及び当該エージェントの特徴に基づいて、前記ユーザの発話文に対する前記複数のエージェントそれぞれの回答文を選択する請求項1から11のいずれか1項に記載のエージェント表示方法。
- 前記ユーザに優先的に確認させたいエージェントの回答文は、前記回答選択ステップにおいて選択された前記複数のエージェントそれぞれの回答文のうち前記類似度が最も高い質問文に対応する回答文である請求項11又は12に記載のエージェント表示方法。
- 前記ユーザの発話文に対する前記複数のエージェントそれぞれの回答文は概要である請求項1から13のいずれか1項に記載のエージェント表示方法。
- 前記エージェントに対する前記ユーザの選択を受け付ける選択受付ステップと、
前記エージェントのうち前記ユーザが選択したエージェントの回答文の詳細を表示するステップと、をさらに備える請求項14に記載のエージェント表示方法。 - 少なくとも1つのプロセッサを備えた情報処理装置に、
ユーザの発話文を取得する発話文取得処理と、
質問文と当該質問文に対応する回答文とが記憶されたエージェントごとのデータベースから、前記ユーザの発話文に対する前記複数のエージェントそれぞれの回答文を選択する回答選択処理と、
前記複数のエージェントを含む画面を表示するエージェント表示処理と、を実行させるためのプログラムであって、
前記エージェント表示処理は、前記複数のエージェントのうち前記ユーザに優先的に確認させたいエージェントを、他のエージェントより強調した態様で表示するプログラム。 - ユーザの発話文に対して応答する複数のエージェントを同時に表示するエージェント表示システムであって、
前記ユーザの発話文を取得する発話文取得部と、
質問文と当該質問文に対応する回答文とが記憶されたエージェントごとのデータベースから、前記ユーザの発話文に対する前記複数のエージェントそれぞれの回答文を選択する回答選択部と、
前記複数のエージェントを含む画面を表示するエージェント表示部と、を備え、
前記エージェント表示部は、前記複数のエージェントのうち前記ユーザに優先的に確認させたいエージェントを、他のエージェントより強調した態様で表示するエージェント表示システム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020216963A JP2022102305A (ja) | 2020-12-25 | 2020-12-25 | エージェント表示方法、プログラム、及びエージェント表示システム |
US17/556,275 US20220206742A1 (en) | 2020-12-25 | 2021-12-20 | Agent display method, non-transitory computer readable medium, and agent display system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020216963A JP2022102305A (ja) | 2020-12-25 | 2020-12-25 | エージェント表示方法、プログラム、及びエージェント表示システム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022102305A true JP2022102305A (ja) | 2022-07-07 |
Family
ID=82119073
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020216963A Pending JP2022102305A (ja) | 2020-12-25 | 2020-12-25 | エージェント表示方法、プログラム、及びエージェント表示システム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20220206742A1 (ja) |
JP (1) | JP2022102305A (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024122373A1 (ja) * | 2022-12-08 | 2024-06-13 | 国立大学法人大阪大学 | 対話システム、制御プログラムおよび制御方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020052913A1 (en) * | 2000-09-06 | 2002-05-02 | Teruhiro Yamada | User support apparatus and system using agents |
JP2008187575A (ja) * | 2007-01-31 | 2008-08-14 | Sony Corp | 情報処理装置および方法、並びにプログラム |
US8607273B2 (en) * | 2011-01-27 | 2013-12-10 | Sony Corporation | Recommendation comparison display |
US9729592B2 (en) * | 2013-08-27 | 2017-08-08 | Persais, Llc | System and method for distributed virtual assistant platforms |
JP2017206284A (ja) * | 2016-05-18 | 2017-11-24 | パナソニックIpマネジメント株式会社 | 飲料ディスペンサ |
US10636425B2 (en) * | 2018-06-05 | 2020-04-28 | Voicify, LLC | Voice application platform |
JP2020144274A (ja) * | 2019-03-07 | 2020-09-10 | 本田技研工業株式会社 | エージェント装置、エージェント装置の制御方法、およびプログラム |
JP7247719B2 (ja) * | 2019-04-03 | 2023-03-29 | 株式会社島津製作所 | 放射線透視撮影装置 |
-
2020
- 2020-12-25 JP JP2020216963A patent/JP2022102305A/ja active Pending
-
2021
- 2021-12-20 US US17/556,275 patent/US20220206742A1/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024122373A1 (ja) * | 2022-12-08 | 2024-06-13 | 国立大学法人大阪大学 | 対話システム、制御プログラムおよび制御方法 |
Also Published As
Publication number | Publication date |
---|---|
US20220206742A1 (en) | 2022-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10950219B2 (en) | Systems and methods for providing a virtual assistant | |
JP6783483B2 (ja) | 表示装置 | |
US11762865B2 (en) | Automatically augmenting message exchange threads based on tone of message | |
US10217464B2 (en) | Vocabulary generation system | |
US10997373B2 (en) | Document-based response generation system | |
WO2014047270A1 (en) | Method and apparatus for predicting intent in ivr using natural language queries | |
CN109684455A (zh) | 智能客服***的实现方法及装置、设备、可读存储介质 | |
US20190318004A1 (en) | Intelligent Call Center Agent Assistant | |
US20190228760A1 (en) | Information processing system, information processing apparatus, information processing method, and recording medium | |
CN111507573A (zh) | 业务员考核方法、***、设备及存储介质 | |
CN116501960B (zh) | 内容检索方法、装置、设备及介质 | |
CN116521841B (zh) | 用于生成回复信息的方法、装置、设备及介质 | |
JP2022102305A (ja) | エージェント表示方法、プログラム、及びエージェント表示システム | |
US11942086B2 (en) | Description support device and description support method | |
CN111881270B (zh) | 一种智能对话方法和*** | |
JP2022102306A (ja) | エージェント表示方法、プログラム、及びエージェント表示システム | |
CN113407699A (zh) | 对话方法、装置、设备和存储介质 | |
JP2021012660A (ja) | 情報処理装置、情報処理方法および情報処理プログラム | |
JP7131518B2 (ja) | 電子機器、発音学習方法、サーバ装置、発音学習処理システムおよびプログラム | |
US11775774B2 (en) | Open input empathy interaction | |
JP2023169093A (ja) | プログラム、情報処理装置、情報処理システム、情報処理方法、情報処理端末 | |
JP2023181684A (ja) | 応対フロー作成支援装置、及び応対フロー作成支援方法 | |
CN118318234A (zh) | 用于使与实体相关联的代表能够修改与实体相关联的经训练的语音机器人的***和方法 | |
JP2021189890A (ja) | 対話装置、対話方法及び対話システム | |
JP2023161357A (ja) | 情報処理システム、情報処理方法及び情報処理プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230718 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240529 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240604 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240702 |