JP6929960B2 - 情報処理装置及び情報処理方法 - Google Patents

情報処理装置及び情報処理方法 Download PDF

Info

Publication number
JP6929960B2
JP6929960B2 JP2019555315A JP2019555315A JP6929960B2 JP 6929960 B2 JP6929960 B2 JP 6929960B2 JP 2019555315 A JP2019555315 A JP 2019555315A JP 2019555315 A JP2019555315 A JP 2019555315A JP 6929960 B2 JP6929960 B2 JP 6929960B2
Authority
JP
Japan
Prior art keywords
guidance information
user
user terminal
data
input data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019555315A
Other languages
English (en)
Other versions
JPWO2019103007A1 (ja
Inventor
公亮 角野
公亮 角野
優樹 斉藤
優樹 斉藤
陽平 大野
陽平 大野
雄一朗 瀬川
雄一朗 瀬川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Publication of JPWO2019103007A1 publication Critical patent/JPWO2019103007A1/ja
Application granted granted Critical
Publication of JP6929960B2 publication Critical patent/JP6929960B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • G06F16/90332Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Acoustics & Sound (AREA)
  • User Interface Of Digital Computer (AREA)
  • Machine Translation (AREA)

Description

本発明は、音声に応じた処理を行うための技術に関する。
近年の音声認識技術の向上に伴い、ユーザが発話して音声で指示を行うと、その指示に従って各種の処理を行うというサービスが普及している。例えば特許文献1には、フロントエンド装置が、連携先システムへの音声データの入力と並行して、キー入力やマウスによるキーワードの入力を受け付け、音声データに含まれるキーワードを特定する仕組みが開示されている。
国際公開第WO08/150003号
このようにユーザが音声によって所望の処理を指示する場合において、特にこの種のサービスに慣れてないユーザにとってはどのようにして音声で指示を行えばよいかを分からず、戸惑うことがある。一方、音声による指示に応じた処理を行う対話処理装置側においては、そのようなユーザに対する案内を逐一用意することが負担になることが予想される。そこで、本発明は、対話処理装置の利用に関する案内を簡便に生成してユーザに提示することを目的とする。
上記課題を解決するため、本発明は、ユーザ端末に入力された発話に応じた入力データと、当該入力データに応じた処理を行う1以上の対話処理装置からの応答データを取得する取得部と、取得された前記入力データ及び前記応答データに基づいて、当該対話処理装置の利用に関してユーザに案内する案内情報を生成する生成部と、前記生成部によって生成された案内情報を前記ユーザ端末に出力する出力部とを備える情報処理装置を提供する。
前記生成部は、前記入力データと当該入力データに応答する前記応答データとをそれぞれ類型化した結果に基づいて、前記案内情報を生成するようにしてもよい。
前記生成部は、前記入力データに応答する前記応答データ群のうち、エラーに関する応答データに基づいて、前記案内情報を生成するようにしてもよい。
前記生成部は、エラーに関する応答データと所定の類似関係があり且つエラーに関する応答データがない入力データに基づいて前記案内情報を生成するようにしてもよい。
前記生成部は、エラーに関する応答データが出力される前記入力データのうち、当該エラーに関する応答データが閾値以上である場合に、当該エラーに関する応答データに基づいて前記案内情報を生成するようにしてもよい。
前記生成部は、前記入力データと当該入力データに応答する前記応答データとの組を1回の対話回数としたときに、前記ユーザ端末に発話が入力されてから前記対話処理装置が処理を行うまでの対話回数に基づいて、前記案内情報を生成するようにしてもよい。
前記生成部は、前記ユーザ端末を使用するユーザ又は当該ユーザが属するグループ単位で前記案内情報を生成し、前記出力部は、前記ユーザ端末を使用するユーザ又は当該ユーザが属するグループに応じた案内情報を当該ユーザ端末に出力するようにしてもよい。
前記出力部は、前記案内情報の内容に応じて当該案内情報を表示するか又は音声出力するかを指定して、当該案内情報を前記ユーザ端末に出力するようにしてもよい。
前記出力部は、前記案内情報を出力する必要があるか否かを判断し、前記案内情報を出力する必要がある場合には、当該案内情報を前記ユーザ端末に出力するようにしてもよい。
また、本発明は、ユーザ端末に入力された発話に応じた入力データと、当該入力データに応じた処理を行う1以上の対話処理装置からの応答データを取得するステップと、取得された前記入力データ及び前記応答データに基づいて、当該対話処理装置の利用に関してユーザに案内する案内情報を生成するステップと、前記生成された案内情報を前記ユーザ端末に出力するステップとを含む情報処理方法を提供する。
本発明によれば、対話処理装置の利用に関する案内を簡便に生成してユーザに提示することができる。
本発明の一実施形態にかかる対話処理システムの全体構成を示す図である。 同実施形態にかかる中継装置のハードウェア構成を示す図である。 同中継装置の機能構成を示す図である。 同中継装置の処理を示すフローチャートである。 同中継装置の処理を示すフローチャートである。
1・・・中継装置、101・・・制御部、102・・・通信部、103・・・記憶部、11・・・取得部、12・・・生成部、13・・・出力部、2・・・ユーザ端末、3a,3b・・・対話処理装置、4・・・通信網。
[構成]
図1は、本発明の一実施形態に係る対話処理システムの全体構成を示すブロック図である。この対話処理システムは、本発明に係る情報処理装置の一形態である中継装置1と、発話者であるユーザが利用するユーザ端末2と、ユーザが発話した音声を認識してその認識結果に応じた処理(以下、対話処理機能という)を行う対話処理装置3a,3bと、これら中継装置1、ユーザ端末2及び対話処理装置3a,3bを通信可能に接続する通信網4とを備えている。ユーザ端末2は例えばスマートホンやタブレット等の携帯可能なコンピュータであってもよいし、ユーザの自宅等に設置された据え置き型のコンピュータであってもよい。通信網4は移動通信網又は固定通信網を含んでおり、例えばユーザ端末2は無線で移動通信網に接続可能である。対話処理装置3a,3bは図では2つある場合を例示しているが、この例に限らず、1以上であればよい。また、ユーザ端末2は1つに限らず、複数であってもよい。なお、以下において、対話処理装置3a,3bを総称するときは、対話処理装置3という。
対話処理装置3a,3bは、それぞれ異なる事業者によって運営管理されるコンピュータである。例えば、対話処理装置3aは、ユーザがピザの宅配を音声で指示することが可能な装置であり、対話処理装置3bは、ユーザが日用品や雑貨の注文を音声で指示することが可能な装置である。それぞれの対話処理装置3a,3bにおいては、ユーザが音声で指示を入力するときの規則(以下、入力規則という)が決まっている。例えば対話処理装置3aにおいては、宅配可能なピザの名称が決まっているし、対話処理装置3bにおいては、注文可能な日用品の商品名が決まっているから、これらのピザの名称や商品名を正しく発話して対話処理装置3a,3bに入力する、ということが、ここでの入力規則に相当する。
中継装置1は、ユーザ端末2と対話処理装置3a,3bとの間のデータ授受を中継する、いわゆるプラットフォームとして機能するコンピュータである。中継装置1は、これらユーザ端末2と対話処理装置3a,3bとの間のデータの入出力に基づいて、これら対話処理装置3a,3bの利用に関してユーザに案内する案内情報を生成してユーザに提示する。この案内情報はそれぞれの対話処理装置3a,3bに対する入力規則に従うものとなるから、案内情報の内容は対話処理装置3a,3bごとに異なる。
図2は、中継装置1のハードウェア構成を示すブロック図である。中継装置1は、制御部101と、通信部102と、記憶部103とを備えている。制御部101は、CPU(Central Processing Unit)などの演算装置と、ROM(Read Only Memory)及びRAM(Random Access Memory)などの記憶装置とを備えている。CPUは、RAMをワークエリアとして用いてROMや記憶部103に記憶されたプログラムを実行することによって、中継装置1の各部の動作を制御する。
通信部102は、有線及び/又は無線ネットワークを介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。通信部102は、通信網4に接続されている。
記憶部103は、コンピュータ読み取り可能な記録媒体であり、例えば、CD−ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu−ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つで構成されてもよい。記憶部103は、補助記憶装置と呼ばれてもよい。記憶部103は、制御部101が用いるデータ群やプログラム群を記憶している。
図3は、中継装置1の機能構成を示すブロック図である。図3において、取得部11及び出力部13は主に中継装置1の通信部102によって実現され、生成部12は主に中継装置1の制御部101及び記憶部103によって実現される。
ユーザ端末2にはマイクが実装されており、このマイクによりユーザが発話した音声が収音され、その発話に応じた入力データが生成されて通信網4を介して中継装置1に送信される。この入力データは、ユーザ端末2において、発話された音声を示す音声データが文字を示すテキストデータに変換されたデータであってもよいし、発話された音声を示す音声データそのもの(或いはユーザ端末2において音声データに対して何らかの音声処理が施されたデータ)であってもよい。中継装置1の取得部11は、このようにしてユーザ端末2に入力された入力データを通信網4経由で取得する一方、この入力データに応答する対話処理装置3からの応答データを通信網4経由で取得する。この応答データは、上述した入力データと同様に、テキストデータであってもよいし、音声データであってもよい。
生成部12は、取得された入力データ及び応答データに基づいて、対話処理装置の利用に関してユーザに案内する案内情報を生成する。具体的には、生成部12は、入力データと当該入力データに応答する応答データとをそれぞれ類型化した結果に基づいて案内情報を生成する。ここでいう類型化とは、音声による指示に応じた処理或いはその指示によって実現される機能がどのような種類のものであるかという観点でタイプ分けすることであり、例えば「注文タイプ」、「情報提供タイプ」、「家電制御タイプ」等があるが、詳しくは後述する。
出力部13は、生成部12によって生成された案内情報をユーザ端末2に出力する。また、出力部13は、対話処理装置3に対する入力データを対話処理装置3に出力する。ここで、前述したように入力データが音声データからテキストデータに変換されたデータである場合、出力部13は、対話処理装置3に対する入力データをテキストデータに変換し、変換後のテキストデータを対話処理装置3に出力する。また、出力部13は、対話処理装置3からの応答データを通信網4経由でユーザ端末2に出力する。この応答データはテキストデータであってもよいし音声データであってもよい。ユーザ端末2にはスピーカが実装されており、このスピーカから案内情報又は応答データに応じた音声が放音される。
[動作]
次に、図4、5を参照して本実施形態の動作を説明する。まず、中継装置1による案内情報の生成動作について説明する。ユーザが対話処理機能を起動するために予め決められたキーワードを発話すると、ユーザ端末2がこの発話を収音して対話処理機能が起動される。次に、ユーザは、いずれかの対話処理装置3を指定して処理を指示する発話を行う。中継装置1の取得部11は、ユーザ端末2に入力された発話に応じた入力データを通信網4経由で取得して記憶する。出力部13は、この入力データを通信網4経由で対話処理装置3に出力する(ステップS1)。これに応じて、対話処理装置3から応答データが送信されてくるので、取得部11は、対話処理装置3から送信されてくる応答データを通信網4経由で取得して記憶する。出力部13は、この応答データを通信網4経由でユーザ端末2に出力する(ステップS2)。生成部12は、上記ステップS1,S2において記憶された入力データ及び応答データに基づいて、対話処理装置3の利用に関してユーザに案内する案内情報を生成する(ステップS3)。
ここで案内情報の一例について説明する。前述したように、入力データおよび応答データの類型化には、例えば注文タイプ、情報提供タイプ、家電制御タイプ等がある。まず、注文タイプについては、例えばユーザの発話音声(以下、ユーザ発話という)が「XXピザください」であり、対話処理装置3からの発話音声の応答データ(以下、装置発話という)が「注文を受け付けました」であったとする。このとき、生成部12は、これらの遣り取りについて、例えば形態素解析、構文解析、意味解析、文脈解析等を含む自然言語解析を行って、ユーザが商品又はサービスの注文を行うと対話処理装置3がその注文を受け付けて処理するという、注文タイプであると判断する。この場合の案内情報としては、「この対処処理機能では○○を注文できます」とか、「この対処処理機能では○○をお買いものできます」といったフォーマットに基づいた案内情報が考えられる。ここで、「○○」には、上記の自然言語解析で特定した商品又はサービスのカテゴリ名(例えばピザ)という単語が入る。
次に、情報提供タイプについては、例えばユーザ発話が「いま何時?」であり、これに応答する装置発話が「3時26分です」であった場合、生成部12は、これらの遣り取りについて自然言語解析を行って、ユーザ発話が疑問文又は情報提供を求める命令文であり、これに対して装置発話が回答を返すという、情報提供タイプであると判断する。この場合の案内情報としては、「この対処処理機能ではあなたの質問に答えてくれます」といったフォーマットに基づいた案内情報が考えられる。
より具体的には、例えばユーザ発話が「今日のおすすめは?」であり、装置発話が「○○ピザです。」であった場合、生成部12は、これらの遣り取りについて自然言語解析を行って、対話処理装置3がユーザに対してリコメンドすることが可能な情報提供タイプであると判断する。この場合の案内情報としては、「この対処処理機能ではおすすめの○○を教えてくれます」といったフォーマットに基づいた案内情報が考えられる。ここで、「○○」には、上記の自然言語解析で特定した商品又はサービスのカテゴリ名(例えばピザ)という単語が入る。
さらに、ユーザ発話が「〇〇について教えて」であり、装置発話が「〇〇について調べました」であった場合、つまり「教えて」といったユーザ発話に対して装置発話により回答を行っている場合には、生成部12は、これらの遣り取りについて自然言語解析を行って、対話処理装置3が情報検索可能な情報提供タイプであると判断する。この場合の案内情報としては、「この対話処理機能では△△(あなたの知りたいこと)について教えて”というと、答えを返してくれます」といったフォーマットに基づいた案内情報が考えられる。
次に、家電制御タイプについては、例えばユーザ発話が「トイレの電気つけて」であり、装置発話が「電気をつけました」であった場合、生成部12は、これらの遣り取りについて自然言語解析を行って、ユーザ発話が制御の指示に相当し、装置発話がその指示に対する完了の回答に相当するという、家電制御タイプであると判断する。この場合の案内情報としては、「この対話処理機能では○○を制御できます」といったフォーマットに基づいた案内情報が考えられる。ここで、「○○」には、上記の自然言語解析で特定した制御対象の名称やそのカテゴリ名(例えば電灯や家電)という単語が入る。
中継装置1の取得部11が入力データ及び応答データを取得するたびに、上記の案内情報の生成乃至更新に関する処理が実行される。その結果、生成乃至更新された案内情報が対話処理装置3の識別情報及びユーザ端末2の識別情報と対応付けて生成部12に記憶される。
次に、中継装置1による案内情報の提供動作について説明する。ユーザが対話処理機能を起動するために予め決められたキーワードを発話すると、ユーザ端末2がこの発話を収音して対話処理機能が起動される。次に、ユーザは、いずれかの対話処理装置3を指定する。この指定は例えば「ピザの宅配」とか「日用品の通販」といった音声での指定であったり、ユーザ端末2に表示された対話処理装置3からのリストからの選択操作であったりする。中継装置1の取得部11は、ユーザ端末2において指定された対話処理装置3の識別情報を取得する。これに応じて、出力部13は指定された対話処理装置3に対応する案内情報を出力する必要があるか否かを判断する(ステップS11)。ここで、出力部13は、その対話処理装置3についての案内情報が生成部12に記憶されていなかったり、ユーザが閾値以上の回数だけその対話処理装置3を利用したことがある場合には、案内情報を出力する必要がないと判断するし、案内情報が生成部12に記憶されているとかユーザが閾値未満の回数しか対話処理装置3を利用したことがない場合には、案内情報を出力する必要があると判断する。
出力部13は、案内情報を出力する必要があれば(ステップS11;YES)、案内情報を生成部12から読み出して(ステップS12)、通信網4経由でユーザ端末2に出力する(ステップS13)。ユーザ端末2のスピーカからこの案内情報に応じた音声が放音される。ユーザはこの案内情報を聞くことで、対話処理装置3の使い方を知ることができる。
以上説明した実施形態によれば、対話処理装置3の利用に関する案内を簡便に生成してユーザに提示することができる。
[変形例]
上述した実施形態は次のような変形が可能である。また、以下の変形例を互いに組み合わせて実施してもよい。
[変形例1]
案内情報を生成する方法は実施形態の例に限定されない。例えば生成部12は、ユーザの入力データに応答する応答データ群のうち、エラーに関する応答データに基づいて、案内情報を生成するようにしてもよい。具体的には、ユーザの入力データを対話処理装置3が認識することができなかったり、その入力データに対応する処理が存在しなかったりするような場合に、対話処理装置3は、例えば「もう一度言ってください」、「よくわかりませんでした」、「理解できませんでした」等の、ユーザにより指定された処理ができないことを意味するエラー応答を行う。このような場合、生成部12は、エラー応答が出力される直前のユーザの入力データを対話処理装置3毎に収集しておく。そして、生成部12は、エラー応答が出力される直前のユーザの入力データを列挙した後で、「これらの音声入力にはこの対話処理装置は対応していません」というようなメッセージを含む案内情報を生成する。この場合、生成部12は、エラー応答が出力されるユーザの入力データのうち、エラー応答が頻出するもの(閾値以上のエラー応答が出力される場合)に限定して案内情報を生成してもよい。
また、生成部12は、エラー応答が出力されるユーザの入力データ(例:プルコギ)と類似するものであって且つエラー応答が出力されないユーザの入力データ(例:プルコギピザ)を抽出し、「“プルコギピザ”を注文したいときは“プルコギ”ではなく“プルコギピザ”と言ってください」というような、前者を後者に言い換えて発話することを促す案内情報を生成するようにしてもよい。つまり、生成部12は、エラーに関する応答と所定の類似関係があり且つエラーに関する応答データが応答されない入力データに基づいて案内情報を生成する。
また、エラー応答が出力されるユーザの入力データに応じてユーザの意図しない処理が選択される場合がある。この場合は、ユーザは発話を中止するという行動をとるので、生成部12はそのことを記録しておく。例えば、対話処理装置3が装置発話「現在地周辺のレストラン120件を調べました。予算で絞込み可能です」を出力した後に、ユーザが「費用は3000円」と発話しても絞り込み検索が行われないようになっているがユーザ「3000円」と発話すると絞り込み検索が行われるような場合には、このような発話に関する注意事項(例えば「絞込み条件となる予算額のみを発話してください」)を含む案内情報を生成する。
実施形態において、生成部12は案内情報を生成する場合に、その案内情報を提供するユーザ(第1のユーザ)の発話履歴に基づいて案内情報を生成していたが、これに限らず、生成部12は、その案内情報を提供するユーザ(第1のユーザ)以外のユーザ(第2のユーザ)の発話履歴に基づいて案内情報を生成してもよい。例えば、第2のユーザのユーザ発話が「XXピザください」であり、対話処理装置3からの発話音声の装置発話が「注文を受け付けました」であった場合、生成部12は、これらの遣り取りについて、例えば形態素解析、構文解析、意味解析、文脈解析等を含む自然言語解析を行って、ユーザが商品又はサービスの注文を行うと対話処理装置3がその注文を受け付けて処理するという、注文タイプであると判断する。この場合において、上記第2のユーザではない第1のユーザに対する案内情報としては、「この対処処理機能では○○を注文できます」とか、「この対処処理機能では○○をお買いものできます」といったフォーマットに基づいた案内情報が考えられる。注文タイプに限らず、情報提供タイプや家電制御タイプ等のその他のケースにおいても同様である。このように、他のユーザの発話に応じた入力データとそれに応答する応答データの組を用いて案内情報を生成してもよい場合には、そのような生成方法を用いてもよい。
[変形例2]
生成部12は、入力データと当該入力データに応答する応答データとの組を1回の対話回数としたときに、ユーザ端末2に入力データが入力されてから対話処理装置3が処理を行うまでの対話回数に基づいて案内情報を生成するようにしてもよい。具体的には、生成部12は、ユーザ端末2に入力データが入力されてから各対話処理装置3について処理完了までの対話回数を記録しておき、それを案内情報として提供する。例えば生成部12は、商品特定(ピザ名特定)→オプション特定(ピザ以外のサブメニュー特定)→お届け先入力→決済情報入力→確認、といった対話の流れにおいて対話回数を記録しておき、その対話回数を案内する案内情報を生成する。お届け先や決済情報が既に登録されている場合には、そのときの対話回数も記録しておき、その対話回数を案内する案内情報を生成するようにしてもよい。
[変形例3]
案内情報の生成は、ユーザ又はユーザグループ単位の生成であってもよい。ここでいうユーザグループとは、例えばオフィスの組織や家族といったグループである。この場合、ユーザ端末2は自装置の識別情報及び自装置のユーザが属するユーザグループの識別情報を伴ってデータ通信を行う。この場合、生成部12は、ユーザ端末2を使用するユーザ単位又は当該ユーザが属するグループ単位で案内情報を生成し、出力部13は、ユーザ端末2を使用するユーザ又は当該ユーザが属するグループに応じた案内情報を当該ユーザ端末2に出力する。
[変形例4]
出力部13は、案内情報の内容に応じて当該案内情報を表示するか又は音声出力するかを指定して、当該案内情報をユーザ端末2に出力するようにしてもよい。出力部13は、例えば案内情報の情報量が多い場合や、画像で示したほうが分かりやすい場合には、その案内情報を表示するよう指定してユーザ端末2に出力する。一方、出力部13は、例えばユーザ端末2が高速で移動中の場合(車両による移動中と推測される場合)には、その案内情報を音声出力するよう指定してユーザ端末2に出力する。
[変形例5]
案内情報の出力タイミングは図5の例に限らず、いつでもよい。出力部13は、例えば、最初のユーザ発話及び装置発話が完了した後に案内情報を出力してもよい。
[変形例6]
生成部12は、どの対話処理装置3が入力データの入力先となる対話処理装置3に相当するかを学習してもよい。具体的には、まず初期段階では、ユーザがいずれかの対話処理装置3を指定して所望の処理を指示する発話を行うが、このときのユーザの入力データと指定された対話処理装置3との対応関係を学習する。例えばユーザの入力データが「ミックスピザください」「チーズピザください」「ミックスチーズピザください」等のように「ピザ」という単語が含まれている場合には、対話処理装置3aが指定されるという対応関係をユーザ端末2毎に学習する。つまり、生成部12は、取得された入力データ及び応答データに基づいて、複数の対話処理装置3のうち、当該入力データの入力先となる対話処理装置3を学習する。このようにすれば、ユーザがこのシステムを利用していく期間が長くなるにつれて上記の学習が進み、最終的には、ユーザが対話処理装置3を指定しなくても、ユーザ発話がそのユーザの所望する対話処理装置3に届けられることになる。
[そのほかの変形例]
上記実施の形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的及び/又は論理的に結合した1つの装置により実現されてもよいし、物理的及び/又は論理的に分離した2つ以上の装置を直接的及び/又は間接的に(例えば、有線及び/又は無線)で接続し、これら複数の装置により実現されてもよい。
例えば、中継装置1は、図3の機能の全てを一体に備えた単一装置によっても実現可能であるし、これらの機能を複数の装置に分散して備えたシステムによって実現されてもよい。
例えば対話処理装置3の機能の少なくとも一部の機能を中継装置1が備えていてもよい。また、中継装置1は、対話処理装置3とは異なる専用の対話機能(例えば対話処理装置3に対するユーザとの対話しシーケンスに移行する前段階でユーザと対話する機能)を有していてもよい。
本明細書で説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE−A(LTE-Advanced)、SUPER 3G、IMT−Advanced、4G、5G、FRA(Future Radio Access)、W−CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi−Fi)、IEEE 802.16(WiMAX)、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及び/又はこれらに基づいて拡張された次世代システムに適用されてもよい。
本明細書で説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。
本明細書で説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
本明細書で使用する「システム」及び「ネットワーク」という用語は、互換的に使用される。
本明細書で使用する「判定(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判定」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up)(例えば、テーブル、データベース又は別のデータ構造での探索)、確認(ascertaining) した事を「判定」「決定」したとみなす事などを含み得る。また、「判定」、「決定」は、受信(receiving) (例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判定」「決定」したとみなす事などを含み得る。また、「判定」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判定」「決定」したとみなす事を含み得る。つまり、「判定」「決定」は、何らかの動作を「判定」「決定」したとみなす事を含み得る。
本発明は、情報処理装置である中継装置1が行う情報処理方法や、コンピュータを情報処理装置である中継装置1として機能させるためのプログラムといった形態でも実施が可能である。かかるプログラムは、光ディスク等の記録媒体に記録した形態で提供されたり、インターネット等のネットワークを介して、コンピュータにダウンロードさせ、これをインストールして利用可能にするなどの形態で提供されたりすることが可能である。
以上、本発明について詳細に説明したが、当業者にとっては、本発明が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本発明は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本発明に対して何ら制限的な意味を有するものではない。

Claims (5)

  1. ユーザ端末に入力された発話に応じた入力データと、当該入力データに応じた処理を行う1以上の対話処理装置からの応答データを取得する取得部と
    記入力データと、前記入力データに応答する前記応答データとをそれぞれ類型化した結果に基づいて、当該対話処理装置の利用に関してユーザに案内する案内情報を生成する生成部と、
    前記生成部によって生成された案内情報を前記ユーザ端末に出力する出力部と
    を備えることを特徴とする情報処理装置。
  2. 前記生成部は、前記ユーザ端末を使用するユーザ又は当該ユーザが属するグループ単位で前記案内情報を生成し、
    前記出力部は、前記ユーザ端末を使用するユーザ又は当該ユーザが属するグループに応じた案内情報を当該ユーザ端末に出力する
    ことを特徴とする請求項1に記載の情報処理装置。
  3. 前記出力部は、前記案内情報の内容に応じて当該案内情報を表示するか又は音声出力するかを指定して、当該案内情報を前記ユーザ端末に出力する
    ことを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記出力部は、前記案内情報を出力する必要があるか否かを判断し、前記案内情報を出力する必要がある場合には、当該案内情報を前記ユーザ端末に出力する
    ことを特徴とする請求項1〜のいずれか1項に記載の情報処理装置。
  5. ユーザ端末に入力された発話に応じた入力データと、当該入力データに応じた処理を行う1以上の対話処理装置からの応答データを取得するステップと
    記入力データと、前記入力データに応答する前記応答データとをそれぞれ類型化した結果に基づいて、当該対話処理装置の利用に関してユーザに案内する案内情報を生成するステップと、
    前記生成された案内情報を前記ユーザ端末に出力するステップと
    を含む情報処理方法。
JP2019555315A 2017-11-24 2018-11-20 情報処理装置及び情報処理方法 Active JP6929960B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017225815 2017-11-24
JP2017225815 2017-11-24
PCT/JP2018/042885 WO2019103007A1 (ja) 2017-11-24 2018-11-20 情報処理装置及び情報処理方法

Publications (2)

Publication Number Publication Date
JPWO2019103007A1 JPWO2019103007A1 (ja) 2020-12-03
JP6929960B2 true JP6929960B2 (ja) 2021-09-01

Family

ID=66631982

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019555315A Active JP6929960B2 (ja) 2017-11-24 2018-11-20 情報処理装置及び情報処理方法

Country Status (3)

Country Link
US (1) US11755652B2 (ja)
JP (1) JP6929960B2 (ja)
WO (1) WO2019103007A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220024557A (ko) 2019-10-15 2022-03-03 구글 엘엘씨 자동화된 어시스턴트에 의한 응답 액션을 트리거하기 위한 핫 명령의 검출 및/또는 등록

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000194386A (ja) * 1998-12-24 2000-07-14 Omron Corp 音声認識応答装置及び方法
US20020052913A1 (en) 2000-09-06 2002-05-02 Teruhiro Yamada User support apparatus and system using agents
JP2002163054A (ja) * 2000-11-29 2002-06-07 Sanyo Electric Co Ltd ユーザ支援方法、装置およびシステム
WO2008150003A1 (ja) 2007-06-06 2008-12-11 Nec Corporation キーワード抽出モデル学習システム、方法およびプログラム

Also Published As

Publication number Publication date
WO2019103007A1 (ja) 2019-05-31
US11755652B2 (en) 2023-09-12
US20210248189A1 (en) 2021-08-12
JPWO2019103007A1 (ja) 2020-12-03

Similar Documents

Publication Publication Date Title
US11315560B2 (en) Method for conducting dialog between human and computer
KR102289917B1 (ko) 화행 정보를 이용한 대화 처리 방법 및 그 장치
US9865264B2 (en) Selective speech recognition for chat and digital personal assistant systems
US9742912B2 (en) Method and apparatus for predicting intent in IVR using natural language queries
CN108305626A (zh) 应用程序的语音控制方法和装置
CN111159364B (zh) 对话***、对话装置、对话方法以及存储介质
KR101615848B1 (ko) 유사상황 검색을 통한 대화 스티커 추천방법 및 컴퓨터 프로그램
US20180218728A1 (en) Domain-Specific Speech Recognizers in a Digital Medium Environment
US10255346B2 (en) Tagging relations with N-best
KR20190117840A (ko) 대화 이해 ai 시스템에 의한 고객 상담의 제공 중에 사람 상담 직원으로 하여금 해당 고객을 위한 이후 상담을 진행하도록 전환하는 방법 및 컴퓨터 판독가능 기록 매체
JP6929960B2 (ja) 情報処理装置及び情報処理方法
US20210166685A1 (en) Speech processing apparatus and speech processing method
JP6937842B2 (ja) 情報処理装置及び情報処理方法
US20210110824A1 (en) Electronic apparatus and controlling method thereof
JP2020204711A (ja) 登録システム
US11942086B2 (en) Description support device and description support method
CN114860910A (zh) 智能对话方法及***
CN114528386A (zh) 机器人的外呼控制方法、装置、存储介质和终端
JP2021012660A (ja) 情報処理装置、情報処理方法および情報処理プログラム
US20230342642A1 (en) System and method for managing a user-controllable device
WO2022270603A1 (en) A system and method for delivering domain or use-case switch suggestion for an ongoing conversation
US20230234221A1 (en) Robot and method for controlling thereof
US20220238107A1 (en) Device and method for providing recommended sentence related to utterance input of user
Hunt et al. Artificial Intelligence for Customer Experience and Care
Kaszuba et al. Empowering Collaboration: A Pipeline for Human-Robot Spoken Interaction in Collaborative Scenarios

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200512

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210713

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210811

R150 Certificate of patent or registration of utility model

Ref document number: 6929960

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150