JP6944594B2 - 対話装置 - Google Patents
対話装置 Download PDFInfo
- Publication number
- JP6944594B2 JP6944594B2 JP2020523565A JP2020523565A JP6944594B2 JP 6944594 B2 JP6944594 B2 JP 6944594B2 JP 2020523565 A JP2020523565 A JP 2020523565A JP 2020523565 A JP2020523565 A JP 2020523565A JP 6944594 B2 JP6944594 B2 JP 6944594B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- profile
- user
- focus
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000013598 vector Substances 0.000 description 28
- 238000000034 method Methods 0.000 description 25
- 238000000605 extraction Methods 0.000 description 18
- 238000004458 analytical method Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 15
- 238000004891 communication Methods 0.000 description 11
- 210000001015 abdomen Anatomy 0.000 description 9
- 239000000284 extract Substances 0.000 description 8
- 235000011888 snacks Nutrition 0.000 description 6
- 230000011664 signaling Effects 0.000 description 5
- 235000019640 taste Nutrition 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000010411 cooking Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000000877 morphologic effect Effects 0.000 description 3
- 230000009118 appropriate response Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 240000007594 Oryza sativa Species 0.000 description 1
- 235000007164 Oryza sativa Nutrition 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000006249 magnetic particle Substances 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 235000009566 rice Nutrition 0.000 description 1
- 230000001932 seasonal effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/9032—Query formulation
- G06F16/90332—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/9035—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/907—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/909—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/065—Adaptation
- G10L15/07—Adaptation to the speaker
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Acoustics & Sound (AREA)
- Library & Information Science (AREA)
- General Health & Medical Sciences (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本発明は、ユーザと対話を行う対話装置に関する。
特許文献1(特開2001−188787号公報)には、会話処理装置についての記載がある。この会話処理装置は、ユーザの趣向に関するプロファイルデータを記憶しておき、このプロファイルデータを用いてユーザと会話することができる。
しかしながら、上記特許文献1の発明では、複数のプロフィールデータがあった場合、どのプロフィールデータを採用して、会話をすべきか決めておらず、適切な応答をすることができない。例えば、直前に獲得したプロフィールばかり使用すると、適切な応答を行うことができず、よってユーザとの親密度の低下を招くことがあり得る。
そこで、上述の課題を解決するために、本発明は、ユーザとの親密度またはユーザの満足度を向上することができる発話を可能にする対話装置を提供することを目的とする。
本発明は、ユーザから入力情報を取得する入力情報取得部と、前記入力情報における焦点を示す焦点情報を取得する焦点情報取得部と、前記ユーザのプロフィール情報と当該プロフィール情報を登録した日時情報とを対応付けて記憶するユーザプロフィール記憶部と、前記ユーザプロフィール記憶部に記憶されている前記焦点情報に対応するプロフィール情報から、日時情報に基づいて定められた優先度に従ってプロフィール情報を取得するプロフィール情報取得部と、前記プロフィール情報に対応する発話情報を生成する発話生成部と、を備える。
この構成によれば、日時情報に応じたプロフィール情報を利用して発話情報を生成することができる。したがって、ユーザの親密度またはユーザの満足度を向上させることができる。
本発明によると、ユーザの親密度またはユーザの満足度を向上させることができる。
添付図面を参照しながら本発明の実施形態を説明する。可能な場合には、同一の部分には同一の符号を付して、重複する説明を省略する。
図1は、本実施形態の対話装置100を含んだ対話システムのシステム構成図である。図1に示されるとおり、この対話システムは、対話装置100、メールサーバ200、およびプロバイダ300を含んで構成されている。対話装置100は、ユーザ端末50との間で対話処理を行う。例えば、対話装置100は、ユーザ端末50から送信された入力情報(テキスト情報)に応じた対話情報を生成し、ユーザ端末50に返信する。対話情報は、入力情報の話題(焦点情報)および/またはユーザ端末50のユーザのユーザプロフィール(プロフィール情報)に基づいた文章情報である。このシステムによって、ユーザ端末50のユーザは、対話装置100と対話を行うことができる。例えば、雑談など、特にコンテンツの情報提供を求めていない会話を行うことができる。なお、ユーザ端末50は、ユーザが操作する携帯端末、スマートフォン、タブレット端末などの情報処理装置である。ユーザは、ユーザ端末50を操作することにより、対話のためのテキストを入力情報として入力する。
対話装置100は、ユーザ端末50から送信された入力情報に基づいて、当該ユーザのユーザプロフィールを抽出して、記憶しておき、このユーザプロフィールを利用して対話情報を生成する。
なお、ユーザプロフィールは、対話装置100がユーザ端末50との間でなされた対話に基づいて生成されるが、これに限るものではない。ユーザプロフィールは、メールサーバ200またはプロバイダ300が、ユーザ端末50とメール通信により得られた情報(メール本文など)、またはインターネット接続を行うことにより得られた情報(検索キーなど)に基づいて生成されてもよい。
その場合、対話装置100は、メールサーバ200およびプロバイダ300と通信可能に構成されており、ユーザIDをキーにしてユーザごとの情報を取得し、ユーザプロフィールを生成する。
また、対話装置100は、ユーザ端末50とネットワークを介して通信可能に構成されているが、これに限るものではない。対話装置100は、ユーザ端末50に内蔵されており、ユーザは、対話装置100に直接入力情報等を入力してもよい。
つぎに、この対話装置100の詳細な機能構成について説明する。図2は、対話装置100の機能構成を示すブロック図である。図2に示されるとおり、対話装置100は、入力情報取得部101、入力情報解析部102、焦点抽出部103(焦点情報取得部)、ユーザプロフィール推定部104,ユーザプロフィール登録部105,カテゴリ判断部106、プロフィール情報取得部107、発話生成部108、出力部109、ユーザプロフィールDB110(ユーザプロフィール記憶部)、および発話DB111を含んで構成されている。以下、各構成要件について説明する。
入力情報取得部101は、ユーザ端末50から送信された入力情報を、直接またはネットワークを介して取得する部分である。
入力情報解析部102は、入力情報取得部101が取得した入力情報を解析する部分である。具体的には、入力情報解析部102は、形態素解析を行うことで、入力情報から一または複数の単語、助詞、および動詞などの言語で意味を持つ最小単位を抽出する。
焦点抽出部103は、入力情報解析部102により解析されて得られた情報(最小単位の情報)、そのほかユーザが入力した情報に基づいて、ユーザ発話(入力情報)の話題の少なくとも一部を表す焦点情報を抽出する部分である。焦点情報は、例えば、ユーザからの入力情報において最も話題の中心となっている単語である。入力情報からの焦点情報の抽出には、種々の周知の技術を適用することができ、例えば、ディープラーニング、SVM等の機械学習の手法を用いることができる。
一例として、以下の公知の技術を使用してもよい。焦点抽出部103は、入力情報から入力情報解析部102(形態素解析)により抽出された単語を焦点情報の候補として抽出するとともに、ユーザからの入力情報におけるその焦点情報の候補の前後に位置する単語または文字、およびその素性(特徴)を抽出する。焦点抽出部103は、焦点情報の候補と、その前後に位置する単語(文字を含む)の素性に基づいて、スコアを算出し、そのスコアに基づいて焦点情報の候補から焦点情報を決定する。
さらに、焦点抽出部103は、焦点情報の特徴ベクトルを算出する。焦点情報の特徴ベクトルは、焦点情報で表される単語の意味を示すベクトルである。例えばWord2Vectorなど公知の技術によって、単語をベクトル表現することができる。
ユーザプロフィール推定部104は、ユーザ端末50が送信した入力情報からユーザプロフィールを推定する部分である。例えば、入力情報から、その入力情報の焦点情報(話題)、特徴ベクトル、述語項構造ペア、TagA、TagBなどを含むユーザプロフィールを推定する。述語項構造ペアは、動詞に例示されるような述語と、その述語の主語及び目的語となるような項とのペアである。TagAおよびTagBは、述語項構造ペアにおけるカテゴリを示す情報である。入力情報に含まれている単語に基づいてユーザプロフィールは推定可能である。
最も簡単な処理方法としては、以下の処理が考えられる。ユーザプロフィール推定部104は、対話中に入力された入力情報から焦点情報を抽出するとともに、その入力情報から述語項構造ペアを抽出する。例えば、「ラーメンが好き」という入力情報から、「ラーメン_好き」という述語項構造ペアを抽出することができる。述語項構造は、公知の技術により解析可能な情報である。
また、事前に単語と、属性、趣味、または趣向などとを対応付けたテーブルを用意しておき、ユーザプロフィール推定部104は、上記テーブルを参照して、入力情報解析部102により得られた単語(例えば焦点情報)に対応する属性、趣味、趣向などをユーザプロフィールとして推定する方法が挙げられる。
焦点情報および特徴ベクトルの算出方法については上記焦点抽出部103における処理と同じである。
また、一例として、公知の技術として、以下の処理を利用してもよい。すなわち、ユーザプロフィール推定部104は、各プロフィールの属性間の依存関係を利用した推定処理が知られている。この公知の技術によると、例えば、ユーザプロフィール推定部104は、推定対象のユーザによって作成された文書に含まれる単語に基づいて、単語表記の特徴を示す単語表記素性を作成し、学習された推定モデルに基づいて、作成された単語表記素性を示す観測述語に対して尤もらしい、推定対象のユーザのプロフィール属性の属性値を示す潜在述語を推定することにより、推定対象のユーザのプロフィール属性の属性値を推定する、ことができる。
ユーザプロフィール登録部105は、ユーザプロフィール推定部104により抽出された焦点情報、特徴ベクトル、述語項構造ペア、およびTagAなどの情報を、ユーザプロフィールとして、ユーザIDと対応付けてユーザプロフィールDB110に、その登録日時とともに記憶する部分である。
カテゴリ判断部106は、焦点抽出部103により抽出された焦点情報のカテゴリを判断する部分である。カテゴリ判断部106は、予め単語とカテゴリとを対応付けたカテゴリテーブルを備えており、焦点情報に記述さている単語に対応するカテゴリを判断する。例えば、焦点情報として、“ラーメン”が抽出された場合には、“ラーメン”のカテゴリは“料理・グルメ”であると判断する。なお、上記のユーザプロフィールにおけるTagとカテゴリとは、同じ情報である。
図3は、そのカテゴリテーブルの具体例を示す図である。図3に示すとおり、一の単語に一または複数のカテゴリを対応付けて記述している。
プロフィール情報取得部107は、カテゴリ判断部106により判断された焦点情報に対応したユーザプロフィールを、ユーザプロフィールDB110から取得する部分である。すなわち、プロフィール情報取得部107は、焦点情報の特徴ベクトルと、ユーザプロフィールの焦点情報の特徴ベクトルとを比較し、ベクトル間の距離が所定距離以下であるユーザプロフィールを取得する。
なお、プロフィール情報取得部107は、焦点情報の特徴ベクトルに基づいて取得することに限るものではない。焦点情報のカテゴリを示すTag情報を用いて、対応するプロフィール情報を取得してもよい。
プロフィール情報取得部107は、ベクトル間距離が所定より以下のプロフィールが複数ある場合には、カテゴリ判断部106により判断されたカテゴリに基づいた優先順位に従って、一のプロフィール情報を取得する。例えば、プロフィール情報取得部107は、カテゴリ判断部106により抽出した焦点情報が趣味・嗜好に関するカテゴリに属すると判断されると、ユーザプロフィールDB110に記憶されているユーザプロフィールの登録日が最も古いユーザプロフィールを取得する。なお、登録日が最も古いプロフィールを優先させること例示であり、これに限るものではない。カテゴリによって登録日が最も新しいプロフィールを優先させてもよい。
また、プロフィール情報取得部107は、ユーザプロフィールDB110における登録日が、所定の日時より前のユーザプロフィール、または所定の日時より後のユーザプロフィールを取得しなくてもよい。あまりにも古い、または新しいユーザプロフィールはユーザの満足度・親しみやすさ向上には寄与しないためである。
なお、プロフィール情報取得部107は、カテゴリ判断部106により判断されたカテゴリに基づいて、取得対象となる上記登録日の範囲を決めてもよい。カテゴリによっては、古いユーザプロフィールを利用しても、ユーザの満足度・親しみやすさなどには影響がない場合があり得る。
また、プロフィール情報取得部107は、ユーザプロフィールDB110における登録日が示す時間帯、時期、または季節に基づいて、取得対象となるユーザプロフィールを決定してもよい。例えば、入力情報の取得日時の時間帯と同じ時間帯に登録日となるユーザプロフィールを利用することで、ユーザの満足度・親しみやすさを向上させることができる。
また、プロフィール情報取得部107は、カテゴリ判断部106により判断されたカテゴリに基づいて、上記時間帯、時期、または季節に応じたユーザプロフィールを取得するか否かを切替えてもよい。カテゴリによっては、時間帯、時期、季節に関連がない対話が可能であり、ユーザの満足度・親しみやすさなどには影響がない場合があり得る。
発話生成部108は、入力情報の焦点情報に対応する第1発話文を発話DB111から取得する部分である。さらに、発話生成部108は、プロフィール情報取得部107により、入力情報の焦点情報に対応するユーザプロフィールが取得された場合には、そのユーザプロフィールを用いた第2発話文を生成し、第1発話文に付加することで、発話文を生成する。
例えば、発話生成部108は、「おなかがすいたなあ」という入力情報の焦点情報「おなか」に基づいて、「おやつはどうですか?」という第1発話文を発話DB111から取得する。さらに発話生成部108は、ユーザプロフィールDB110から焦点情報「おなか」の特徴ベクトルを用いて取得されたユーザプロフィールから、述語項構造ペア「ラーメン_好き」を取得する。発話生成部108は、述語項構造ペア「ラーメン_好き」から第2発話文「ラーメンが好き」を生成する。
発話生成部108は、第1発話文と第2発話文とを合成して、一つの発話文を生成する。例えば、発話文「ラーメンが好きと伺いました。おやつにどうですか」を生成する。なお、“伺いました”は定型でもっている文章であって、ユーザプロフィールに基づいた第2発話文を付加する場合には、語尾に“伺いました”を付加したものとする。
さらに、発話生成部108は、ユーザプロフィールの登録日に基づいて、日時を示す用語をさらに付加してもよい。例えば、ユーザプロフィールの登録日が1ヶ月前である場合には、「1ヶ月前に」という発話文を生成して、第2発話文の前に付加してもよい。
出力部109は、発話生成部108により生成された発話文(発話情報)をユーザ端末50に出力する部分である。
ユーザプロフィールDB110は、ユーザIDに対応付けて、ユーザプロフィールを記憶するデータベースである。図4は、そのユーザプロフィールDB110の具体例を示す図である。図4に示されるとおり、ユーザプロフィールDB110は、ユーザID、焦点情報、当該焦点情報の特徴ベクトル、述語項構造ペア、TagA、TagB、および登録日を含むユーザプロフィールを対応付けて記述している。ユーザIDは、ユーザ端末50のユーザを識別するためのIDである。ユーザ端末自体を識別するためのIDでもよいし、ユーザのIDでもよい。
焦点情報は、ユーザプロフィール推定部104により推定された情報であり、入力情報における話題を示す情報である。
焦点情報の特徴ベクトルは、Word2Vectorなど公知の言語処理を行うことに得られたより単語をベクトル表現した情報である。
述語項構造ペアは、ユーザプロフィール推定部104により推定された述語項構造を示す情報である。一般的に、主語または目的語と述語とからなる。図4の例では、目的語と述語とからなる。
TagAおよびTagBは、ユーザの属性、趣味、趣向等を示す情報である。図4の例では、TagAは料理・グルメを示し、TagBは趣味・嗜好を示している。ユーザの属性は一つに限られないものであることから、本実施形態では、A,Bの二つからなるものとしている。なお、当然に二つに限るものではなく、それ以上であってもよい。
登録日は、ユーザプロフィールが登録された日時を示す情報である。
具体的な入力情報を用いてユーザプロフィールの登録について説明する。ユーザプロフィール推定部104は、入力情報の解析結果として「ラーメン/が/好き」を入力すると、これに基づいて属性(TagA/TagB)を推定する。ここでは、「ラーメン」および「好き」に基づいて、「料理・グルメ」「趣味・嗜好」のTagが推定される。そして、焦点抽出部103により抽出された焦点情報などとともにユーザプロフィールDB110に登録される。
ユーザプロフィールDB110は、同じユーザプロフィールが複数登録されている場合がある。同じ入力情報が入力された場合には、同じユーザプロフィールが登録される。したがって、複数の同じユーザプロフィールがある場合、ユーザプロフィールDB110は、その個数を管理しておき、プロフィール情報取得部107は、その個数に基づいてユーザプロフィールの取得に対する優先順位を決めてもよい。
発話DB111は、発話文を生成するためのデータベースである。この発話DB111は、生成用DB111a、第2発話文接続用DB111b、および日時表現用DB111cを含んでいる。図5は、その具体例を示す図である。まず、図5(a)は、生成用DB111aの具体例を示す図であり、焦点情報と発話文とを対応付けたデータベースを示す。図5(a)に示されるように、焦点情報と、発話文とが対応付けられている。図においては、一の焦点情報のみ示しているが、一般的には、一の焦点情報に対して、複数の発話文を対応付けている。発話生成部108は、ランダムまたは対話履歴に基づいて文脈に従った発話文を選択することができる。なお、対話履歴に基づいて文脈に従った発話文の選択処理は、公知の技術により行われる。
図5(b)は、第2発話文接続用DB111bの具体例を示す図であり、第1発話文と第2発話文とを接続する際に挿入される接続文を記憶している。本実施形態おいては、第2発話文の後ろに、「、と伺いましたが、」という接続文が挿入されるために用いられる。
図5(c)は、日時表現用DB111cの具体例を示す図であり、現在日時と登録日との差と、対話に適した表現(時間概念情報)とが対応付けられている。図5(c)においては、現在日時と登録日との差が、25日より多く、35日未満である場合に、「1ヶ月前に」という表現に変換される。図5(c)は、例示であり、当然にこれに限るものではない。なお、時下院概念情報として、日時そのものの情報を発話文に入れる場合には、日時表現用DB111cは不要となる。
上述のユーザプロフィール推定部104およびユーザプロフィール登録部105におけるユーザプロフィールの登録処理は、焦点抽出部103、カテゴリ判断部106、プロフィール情報取得部107、および発話生成部108における対話処理とは、独立にまたは平行して行われる。例えば、メール、インターネット閲覧等をしている場合には、対話処理とは関係なくプロフィール推定処理および登録処理が行われる。
このように構成された対話装置100の動作について説明する。図6は、対話装置100の動作を示すフローチャートである。
入力情報取得部101は、ユーザ端末50から入力情報を取得し、入力情報解析部102は、入力情報を解析する。焦点抽出部103は、解析した入力情報から焦点情報を抽出する(S101)。焦点抽出部103は、焦点情報の特徴ベクトルを算出する(S102)。カテゴリ判断部106は、焦点情報のカテゴリ・優先基準を判断する(S103)。
プロフィール情報取得部107は、焦点情報に対応するユーザプロフィールがあるか否かを判断する(S104)。例えば、プロフィール情報取得部107は、焦点情報の特徴ベクトルに基づいて、ユーザプロフィールDB110におけるユーザプロフィールの有無を判断する。
プロフィール情報取得部107は、焦点情報に対応するユーザプロフィールがあると判断する場合には、ユーザプロフィールDB110を参照して、焦点情報の特徴ベクトルに基づいて、一または複数のユーザプロフィールを取得する(S105)。
プロフィール情報取得部107は、焦点情報のカテゴリに応じて定められた優先基準に従って、一のユーザプロフィールを決定する(S106)。なお、カテゴリの判断は必須ではないため、カテゴリ判断を行わない場合には、事前に決められた優先基準に従うこととする。例えば、登録日が一番古いプロフィールを優先するなどである。
発話生成部108は、入力情報の焦点情報に対応する第1発話文と、一のユーザプロフィールに基づいた第2発話文とから発話文を生成する(S107)。
出力部109は、生成された発話文をユーザ端末50に出力する(S108)。
一方、S102において、焦点情報に対応するユーザプロフィールが、ユーザプロフィールDB110に記憶されていない場合には、発話生成部108は、入力情報の焦点情報に対応する第1発話文を、発話文として生成する(S109)。出力部109は、生成された発話文をユーザ端末50に出力する(S108)。
以上の処理により、ユーザプロフィールに従った発話文を生成することができる。
つぎに、その対話の具体例について説明する。図7は、本実施形態の対話装置100と対話をしているユーザ端末50の表示画面の例を示す図である。図7に示されるとおり、ユーザ端末50のユーザは、メッセージM1「おなかがすいたなあ」を入力する。それに対して、対話装置100は、メッセージM2「一ヶ月ぐらい前に、ラーメンが好きと伺いましたが、おやつにどうですか?」を生成し、ユーザ端末50に送信する。ユーザ端末50は、そのメッセージM2を表示する。
対話装置100は、「ラーメンが好き」というユーザプロフィールを記憶しており、それを利用した対話を可能にする。
このメッセージM1からメッセージM2が生成される処理について模式図を用いて説明する。図8は、その処理を示す模式図である。
図8に示されるとおり、入力情報取得部101は、メッセージM1「おなかがすいたなあ」を取得する。その後、入力情報解析部102は、形態素解析を行って、入力情報解析結果「おなか/が/すいた/なあ」を取得する。焦点抽出部103は、焦点情報「おなか」を抽出する(図6 S101参照)。
そして、焦点抽出部103は、焦点情報「おなか」の特徴ベクトルv0を算出する(図6 S102参照)。
カテゴリ判断部106は、焦点情報「おなか」に対応するカテゴリを判断し、そのユーザプロフィールを選択するための優先基準を決定する(図6 S103参照)。
プロフィール情報取得部107は、ユーザプロフィールDB110からユーザプロフィールを取得する際、焦点情報「おなか」の特徴ベクトルv0に対して、所定距離内にある特徴ベクトルvを有するユーザプロフィールがあるか否かを判断する(図6 S103参照)。
そして、プロフィール情報取得部107は、特徴ベクトルvに基づいた一または複数のユーザプロフィールを取得する。ここで、カテゴリ判断部106により判断されたカテゴリに対応する優先基準に従った一のユーザプロフィールを取得する。例えば、カテゴリが趣味・嗜好に関するものであると判断されると、登録日が最も古いユーザプロフィールを取得する。ここでは、焦点情報「ラーメン」、述語項構造ペア「ラーメン_好き」とあるユーザプロフィールが取得される(図6 S106参照)。
図4を参照して説明すると、特徴ベクトルv0の所定距離にある特徴ベクトルとして、特徴ベクトルv1(焦点情報:ラーメン)、v2(焦点情報:おにぎり)があるとする。
プロフィール情報取得部107は、この二つのうち、カテゴリ判断部106により判断されたカテゴリに応じて定められた優先基準(登録日が新しいものを優先するのか、古いものを優先するのか)にしたがって、一のユーザプロフィールを決定する。ここでは、焦点情報:ラーメンを含んだユーザプロフィールを決定する。なお、ここでは1つに決定しているが、2つのユーザプロフィールを決定してもよい。
発話生成部108は、取得したユーザプロフィールに基づいた第2発話文を生成する。ここではユーザプロフィールにおける述語項構造ペア「ラーメン_好き」を用いて、第2発話文「ラーメンが好き」を生成する(図6 S107参照)。
発話生成部108は、焦点情報「おなか」に基づいて、第1発話文を生成する。ここでは、焦点情報「おなか」に対応する発話文「おやつにどうですか」を、生成用DB111aから取得する(図6 S107参照)。
そして、発話生成部108は、第1発話文と第2発話文とを合成して発話文を生成する。発話生成部108は、合成に際して、自然の文章にするために、接続文「、と伺いましたが、」を付加する。発話生成部108は、「ラーメンが好き、と伺いましたが、おやつにどうですか?」を生成する。なお、第1発話文、第2発話文の生成順序は上記に限るものではない。
さらに、発話生成部108は、現在日時と、ユーザプロフィールの登録日時とに基づいて、日時に関する情報を付加する。ここでは、発話生成部108は、登録日時に基づいて日時表現文「1ヶ月前に」を、発話文に付加し、「1ヶ月前に、ラーメンが好き、と伺いましたが、おやつにどうですか?」を生成する(図6 S107参照)。
上記の例では、プロフィール情報取得部107は、一のユーザプロフィールを取得することを例に説明したが、これに限るものではない。プロフィール情報取得部107は、複数のユーザプロフィールを取得してもよい。その場合、プロフィール情報取得部107は、所定の距離範囲にある特徴ベクトルを有するユーザプロフィールを取得するか、特徴ベクトルに基づいて上位から順に選択したユーザプロフィールを取得する、ことなどが考えられる。
発話生成部108は、複数のユーザプロフィール(すなわち、述語項構造ペア)から複数の発話文を生成し、それを適宜合成する。
また、上述の説明では、ユーザプロフィールのうち述語項構造ペアを用いて第2発話文を生成した。これに限るものではなく、ユーザプロフィールに含まれている他の要素、例えばTagAまたはTagBで示される属性に基づいて一または複数のプロフィールを選択してもよい。この場合、発話生成部108は、生成用DB111aは、TagAまたはTagBで示される属性に対応する発話文を記述しておき、それに基づいて発話文(第2発話文)を生成する。
つぎに、本実施形態の対話装置100の作用効果について説明する。本実施形態の対話装置100は、ユーザから入力情報を取得する入力情報取得部101と、入力情報における焦点を示す焦点情報を取得する焦点抽出部103と、ユーザのプロフィール情報と当該プロフィール情報を登録した日時情報とを対応付けて記憶するユーザプロフィールDB110と、ユーザプロフィールDB110から焦点情報に対応するユーザプロフィールを複数取得した場合、当該複数のユーザプロフィールから、日時情報に基づいて定められた優先度に従ってプロフィール情報を取得するプロフィール情報取得部107と、ユーザプロフィールに対応する発話文(発話情報)を生成する発話生成部108と、を備える。
この構成により、ユーザプロフィールに従った発話文を生成することができ、ユーザの満足度・親しみやすさを向上させることができる。さらに、本実施形態においては、ユーザプロフィールが登録された日時情報に基づいて、発話文の生成に利用されるユーザプロフィールが選択される。したがって、ユーザの満足度・親しみやすさを、より効果的に向上させることができる。
例えば、プロフィール情報取得部107は、日時情報が最も古いユーザプロフィールを優先して、一または複数のユーザプロフィールを取得する。日時情報が古いものを共有することで満足度・親しみやすさを向上させることができる。したがって、比較的簡易な処理で上述の効果を得ることができる。すなわち、簡易な処理であるため、CPUなどの処理部における処理負荷を軽減するという技術的効果をも併せて奏する。
さらに、本実施形態の対話装置100は、入力情報における焦点情報のカテゴリを判断するカテゴリ判断部106をさらに備える。プロフィール情報取得部107は、カテゴリに応じて、ユーザプロフィールを取得する日時情報の優先度を変えて、当該優先度に従ってユーザプロフィールを取得する。
この構成により、ユーザの満足度・親しみやすさを向上させることができる。例えば、趣味・嗜好に関するものは、古い日時情報を優先することで、ユーザの対話装置100に対する満足度・親しみやすさを向上させることができると、考えられている。一方で、それ以外のカテゴリでは、新しい日時情報を優先することが、ユーザの満足度・親しみやすさを向上させることが期待できると考えられる。
また、対話装置100において、発話生成部108は、取得したユーザプロフィールを登録した日時情報に基づいた時間概念情報(1ヶ月前などのメッセージまたは日時そのものを含む)を含んだ発話情報を生成する。例えば、発話生成部108は、登録日時と現在日時との差に基づいた日時に関するメッセージを生成してもよい。例えば、「1ヶ月前」などの時間概念を示す情報を、発話文に追加する。なお、メッセージを生成することなく、その日時を発話文に追加することとしてもよい。
この構成により、時間を明示した発話を行うことができ、ユーザは、過去を共有している感覚が強まる。したがって、ユーザの満足度・親しみやすさを向上させることができる。
また、対話装置100において、プロフィール情報取得部107は、日時情報に基づいてユーザプロフィールを取得する際、事前に定められた日時情報の上限値または下限値に基づいて、一のユーザプロフィールを取得する。
この構成によると、極端に古いユーザプロフィールを排除することができる。また、極端に新しいユーザプロフィール、例えば、現に入力している入力情報に基づいたユーザプロフィールに基づいた発話はユーザにとって対話の繰り返しとなり、面白みがない場合がある。
また、対話装置100において、プロフィール情報取得部107は、日時情報として、時間帯、時期または季節を示す情報を用い、当該時間帯、時期または季節が同じプロフィール情報を取得する。
この構成によると、より適切なユーザプロフィールを取得することができる。例えば、夜の話題については、夜に登録されたユーザプロフィールが適切な場合がある。また、季節に対応したユーザプロフィールが妥当な場合がある。
上記実施の形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及び/又はソフトウェアの任意の組み合わせによって実現される。また、各機能ブロックの実現手段は特に限定されない。すなわち、各機能ブロックは、物理的及び/又は論理的に結合した1つの装置により実現されてもよいし、物理的及び/又は論理的に分離した2つ以上の装置を直接的及び/又は間接的に (例えば、有線及び/又は無線)で接続し、これら複数の装置により実現されてもよい。
例えば、本発明の一実施の形態における対話装置100などは、本実施形態の処理を行うコンピュータとして機能してもよい。図9は、本実施形態に係る対話装置100のハードウェア構成の一例を示す図である。上述の対話装置100は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。
なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。対話装置100のハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。
対話装置100における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることで、プロセッサ1001が演算を行い、通信装置1004による通信や、メモリ1002及びストレージ1003におけるデータの読み出し及び/又は書き込みを制御することで実現される。
プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)で構成されてもよい。例えば、入力情報解析部102、焦点抽出部103、カテゴリ判断部106、プロフィール情報取得部107などは、プロセッサ1001で実現されてもよい。
また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュールやデータを、ストレージ1003及び/又は通信装置1004からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態で説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、対話装置100の焦点抽出部103等は、メモリ1002に格納され、プロセッサ1001で動作する制御プログラムによって実現されてもよく、他の機能ブロックについても同様に実現されてもよい。上述の各種処理は、1つのプロセッサ1001で実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップで実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。
メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つで構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本発明の一実施の形態に係る無線通信方法を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。
ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD−ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu−ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つで構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。上述の記憶媒体は、例えば、メモリ1002及び/又はストレージ1003を含むデータベース、サーバその他の適切な媒体であってもよい。上述のユーザプロフィールDB110、発話DB111はストレージ1003により実現されてもよい。
通信装置1004は、有線及び/又は無線ネットワークを介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。例えば、上述の入力情報取得部101、出力部109などは、通信装置1004で実現されてもよい。
入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。
また、プロセッサ1001やメモリ1002などの各装置は、情報を通信するためのバス1007で接続される。バス1007は、単一のバスで構成されてもよいし、装置間で異なるバスで構成されてもよい。
また、対話装置100は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つで実装されてもよい。
以上、本実施形態について詳細に説明したが、当業者にとっては、本実施形態が本明細書中に説明した実施形態に限定されるものではないということは明らかである。本実施形態は、特許請求の範囲の記載により定まる本発明の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本明細書の記載は、例示説明を目的とするものであり、本実施形態に対して何ら制限的な意味を有するものではない。
情報の通知は、本明細書で説明した態様/実施形態に限られず、他の方法で行われてもよい。例えば、情報の通知は、物理レイヤシグナリング(例えば、DCI(Downlink Control Information)、UCI(Uplink Control Information))、上位レイヤシグナリング(例えば、RRC(Radio Resource Control)シグナリング、MAC(Medium Access Control)シグナリング、報知情報(MIB(Master Information Block)、SIB(System Information Block)))、その他の信号又はこれらの組み合わせによって実施されてもよい。また、RRCシグナリングは、RRCメッセージと呼ばれてもよく、例えば、RRC接続セットアップ(RRC Connection Setup)メッセージ、RRC接続再構成(RRC ConnectionReconfiguration)メッセージなどであってもよい。
本明細書で説明した各態様/実施形態は、LTE(Long Term Evolution)、LTE−A(LTE-Advanced)、SUPER 3G、IMT−Advanced、4G、5G、FRA(Future Radio Access)、W−CDMA(登録商標)、GSM(登録商標)、CDMA2000、UMB(Ultra Mobile Broadband)、IEEE 802.11(Wi−Fi)、IEEE 802.16(WiMAX)、IEEE 802.20、UWB(Ultra-WideBand)、Bluetooth(登録商標)、その他の適切なシステムを利用するシステム及び/又はこれらに基づいて拡張された次世代システムに適用されてもよい。
本明細書で説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本明細書で説明した方法については、例示的な順序で様々なステップの要素を提示しており、提示した特定の順序に限定されない。
情報等は、上位レイヤ(または下位レイヤ)から下位レイヤ(または上位レイヤ)へ出力され得る。複数のネットワークノードを介して入出力されてもよい。
入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルで管理してもよい。入出力される情報等は、上書き、更新、または追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:trueまたはfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
本明細書で説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
また、ソフトウェア、命令などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、同軸ケーブル、光ファイバケーブル、ツイストペア及びデジタル加入者回線(DSL)などの有線技術及び/又は赤外線、無線及びマイクロ波などの無線技術を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び/又は無線技術は、伝送媒体の定義内に含まれる。
本明細書で説明した情報、信号などは、様々な異なる技術のいずれかを使用して表されてもよい。例えば、上記の説明全体に渡って言及され得るデータ、命令、コマンド、情報、信号、ビット、シンボル、チップなどは、電圧、電流、電磁波、磁界若しくは磁性粒子、光場若しくは光子、又はこれらの任意の組み合わせによって表されてもよい。
なお、本明細書で説明した用語及び/又は本明細書の理解に必要な用語については、同一の又は類似する意味を有する用語と置き換えてもよい。
本明細書で使用する「システム」および「ネットワーク」という用語は、互換的に使用される。
また、本明細書で説明した情報、パラメータなどは、絶対値で表されてもよいし、所定の値からの相対値で表されてもよいし、対応する別の情報で表されてもよい。例えば、無線リソースはインデックスで指示されるものであってもよい。
ユーザ端末は、当業者によって、加入者局、モバイルユニット、加入者ユニット、ワイヤレスユニット、リモートユニット、モバイルデバイス、ワイヤレスデバイス、ワイヤレス通信デバイス、リモートデバイス、モバイル加入者局、アクセス端末、モバイル端末、ワイヤレス端末、リモート端末、ハンドセット、ユーザエージェント、モバイルクライアント、クライアント、またはいくつかの他の適切な用語で呼ばれる場合もある。
本明細書で使用する「判断(determining)」、「決定(determining)」という用語は、多種多様な動作を包含する場合がある。「判断」、「決定」は、例えば、判定(judging)、計算(calculating)、算出(computing)、処理(processing)、導出(deriving)、調査(investigating)、探索(looking up)(例えば、テーブル、データベースまたは別のデータ構造での探索)、確認(ascertaining)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、受信(receiving)(例えば、情報を受信すること)、送信(transmitting)(例えば、情報を送信すること)、入力(input)、出力(output)、アクセス(accessing)(例えば、メモリ中のデータにアクセスすること)した事を「判断」「決定」したとみなす事などを含み得る。また、「判断」、「決定」は、解決(resolving)、選択(selecting)、選定(choosing)、確立(establishing)、比較(comparing)などした事を「判断」「決定」したとみなす事を含み得る。つまり、「判断」「決定」は、何らかの動作を「判断」「決定」したとみなす事を含み得る。
「接続された(connected)」、「結合された(coupled)」という用語、又はこれらのあらゆる変形は、2又はそれ以上の要素間の直接的又は間接的なあらゆる接続又は結合を意味し、互いに「接続」又は「結合」された2つの要素間に1又はそれ以上の中間要素が存在することを含むことができる。要素間の結合又は接続は、物理的なものであっても、論理的なものであっても、或いはこれらの組み合わせであってもよい。本明細書で使用する場合、2つの要素は、1又はそれ以上の電線、ケーブル及び/又はプリント電気接続を使用することにより、並びにいくつかの非限定的かつ非包括的な例として、無線周波数領域、マイクロ波領域及び光(可視及び不可視の両方)領域の波長を有する電磁エネルギーなどの電磁エネルギーを使用することにより、互いに「接続」又は「結合」されると考えることができる。
本明細書で使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
本明細書で「第1の」、「第2の」などの呼称を使用した場合においては、その要素へのいかなる参照も、それらの要素の量または順序を全般的に限定するものではない。これらの呼称は、2つ以上の要素間を区別する便利な方法として本明細書で使用され得る。したがって、第1および第2の要素への参照は、2つの要素のみがそこで採用され得ること、または何らかの形で第1の要素が第2の要素に先行しなければならないことを意味しない。
「含む(include)」、「含んでいる(including)」、およびそれらの変形が、本明細書あるいは特許請求の範囲で使用されている限り、これら用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本明細書あるいは特許請求の範囲において使用されている用語「または(or)」は、排他的論理和ではないことが意図される。
本明細書において、文脈または技術的に明らかに1つのみしか存在しない装置である場合以外は、複数の装置をも含むものとする。
50…ユーザ端末、100…対話装置、101…入力情報取得部、102…入力情報解析部、103…焦点抽出部、104…ユーザプロフィール推定部、105…ユーザプロフィール登録部、106…カテゴリ判断部、107…プロフィール情報取得部、108…発話生成部、109…出力部、200…メールサーバ、300…プロバイダ。
Claims (5)
- ユーザから入力情報を取得する入力情報取得部と、
前記入力情報における焦点を示す焦点情報を取得する焦点情報取得部と、
前記ユーザのプロフィール情報と当該プロフィール情報を登録した日時情報とを対応付けて記憶するユーザプロフィール記憶部と、
前記ユーザプロフィール記憶部に記憶されている前記焦点情報に対応するプロフィール情報から、日時情報に基づいて定められた優先度に従ってプロフィール情報を取得するプロフィール情報取得部と、
前記プロフィール情報に対応する発話情報を生成する発話生成部と、
を備える対話装置。 - 前記入力情報における前記焦点情報のカテゴリを判断するカテゴリ判断部をさらに備え、
前記プロフィール情報取得部は、前記カテゴリに応じて、プロフィール情報を取得する日時情報の優先度を変えて、当該優先度に従ってプロフィール情報を取得する、
請求項1に記載の対話装置。 - 前記発話生成部は、前記取得したプロフィール情報を登録した日時情報に基づいた時間概念情報を含んだ発話情報を生成する、請求項1または2に記載の対話装置。
- 前記プロフィール情報取得部は、日時情報に基づいてプロフィール情報を取得する際、事前に定められた日時情報の上限値または下限値に基づいて、プロフィール情報を取得する、請求項1から3のいずれか一項に記載の対話装置。
- 前記プロフィール情報取得部は、日時情報として、時間帯、時期または季節を示す情報を用い、入力情報を取得した日時と同じ時間帯、時期または季節のプロフィール情報を取得する、請求項1から4のいずれか一項に記載の対話装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018110386 | 2018-06-08 | ||
JP2018110386 | 2018-06-08 | ||
PCT/JP2019/017734 WO2019235100A1 (ja) | 2018-06-08 | 2019-04-25 | 対話装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019235100A1 JPWO2019235100A1 (ja) | 2021-03-11 |
JP6944594B2 true JP6944594B2 (ja) | 2021-10-06 |
Family
ID=68769993
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020523565A Active JP6944594B2 (ja) | 2018-06-08 | 2019-04-25 | 対話装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11604831B2 (ja) |
JP (1) | JP6944594B2 (ja) |
WO (1) | WO2019235100A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190098110A (ko) * | 2019-08-02 | 2019-08-21 | 엘지전자 주식회사 | 지능형 프레젠테이션 방법 |
Family Cites Families (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001188787A (ja) | 1999-12-28 | 2001-07-10 | Sony Corp | 会話処理装置および方法、並びに記録媒体 |
US10489449B2 (en) * | 2002-05-23 | 2019-11-26 | Gula Consulting Limited Liability Company | Computer accepting voice input and/or generating audible output |
JP5111735B2 (ja) | 2005-04-11 | 2013-01-09 | 株式会社リコー | 現像装置、プロセスカートリッジ、及び、画像形成装置 |
US7620549B2 (en) * | 2005-08-10 | 2009-11-17 | Voicebox Technologies, Inc. | System and method of supporting adaptive misrecognition in conversational speech |
US9858925B2 (en) * | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
WO2011118712A1 (ja) * | 2010-03-26 | 2011-09-29 | 楽天株式会社 | 検索システム、検索方法、検索プログラム及び記録媒体 |
US11270699B2 (en) * | 2011-04-22 | 2022-03-08 | Emerging Automotive, Llc | Methods and vehicles for capturing emotion of a human driver and customizing vehicle response |
US9779114B2 (en) * | 2011-10-07 | 2017-10-03 | Henk B. Rogers | Media geotagging |
JP2014106882A (ja) * | 2012-11-29 | 2014-06-09 | Toshiba Corp | 情報処理装置及び表示制御方法 |
US9271111B2 (en) * | 2012-12-14 | 2016-02-23 | Amazon Technologies, Inc. | Response endpoint selection |
US20140171133A1 (en) * | 2012-12-18 | 2014-06-19 | Google Inc. | Query response |
US10437350B2 (en) * | 2013-06-28 | 2019-10-08 | Lenovo (Singapore) Pte. Ltd. | Stylus shorthand |
JP6379534B2 (ja) * | 2014-03-11 | 2018-08-29 | 株式会社リコー | 情報処理システム、クライアント装置、及び情報処理方法 |
WO2016016752A1 (en) * | 2014-07-27 | 2016-02-04 | Yogesh Chunilal Rathod | User to user live micro-channels for posting and viewing contextual live contents in real-time |
US10817672B2 (en) * | 2014-10-01 | 2020-10-27 | Nuance Communications, Inc. | Natural language understanding (NLU) processing based on user-specified interests |
US11212584B2 (en) * | 2014-10-10 | 2021-12-28 | ThinkAnalytics | Content recommendation system |
US9786299B2 (en) * | 2014-12-04 | 2017-10-10 | Microsoft Technology Licensing, Llc | Emotion type classification for interactive dialog system |
US10769189B2 (en) * | 2015-11-13 | 2020-09-08 | Microsoft Technology Licensing, Llc | Computer speech recognition and semantic understanding from activity patterns |
US20170193349A1 (en) * | 2015-12-30 | 2017-07-06 | Microsoft Technology Licensing, Llc | Categorizationing and prioritization of managing tasks |
US20170228240A1 (en) * | 2016-02-05 | 2017-08-10 | Microsoft Technology Licensing, Llc | Dynamic reactive contextual policies for personal digital assistants |
US10193850B2 (en) * | 2016-03-30 | 2019-01-29 | Notion Ai, Inc. | Discovering questions, directives, and requests from, and prioritizing replies to, a preferred message sender method and apparatus |
JP2017211610A (ja) * | 2016-05-27 | 2017-11-30 | シャープ株式会社 | 出力制御装置、電子機器、出力制御装置の制御方法、および出力制御装置の制御プログラム |
WO2018043114A1 (ja) * | 2016-08-29 | 2018-03-08 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム |
US10623364B2 (en) * | 2016-09-21 | 2020-04-14 | Microsoft Technology Licensing, Llc | Notifications of action items in messages |
US10742642B2 (en) * | 2016-12-07 | 2020-08-11 | International Business Machines Corporation | User authentication based on predictive applications |
CN110168544A (zh) * | 2016-12-27 | 2019-08-23 | 夏普株式会社 | 应答装置、应答装置的控制方法、及控制程序 |
US10924376B2 (en) * | 2016-12-30 | 2021-02-16 | Google Llc | Selective sensor polling |
JP6454916B2 (ja) * | 2017-03-28 | 2019-01-23 | 本田技研工業株式会社 | 音声処理装置、音声処理方法及びプログラム |
US10614122B2 (en) * | 2017-06-09 | 2020-04-07 | Google Llc | Balance modifications of audio-based computer program output using a placeholder field based on content |
US20180357998A1 (en) * | 2017-06-13 | 2018-12-13 | Intel IP Corporation | Wake-on-voice keyword detection with integrated language identification |
JP6682475B2 (ja) * | 2017-06-20 | 2020-04-15 | Gatebox株式会社 | 画像表示装置、話題選択方法、話題選択プログラム |
US20190027147A1 (en) * | 2017-07-18 | 2019-01-24 | Microsoft Technology Licensing, Llc | Automatic integration of image capture and recognition in a voice-based query to understand intent |
WO2019035371A1 (ja) * | 2017-08-17 | 2019-02-21 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
US10372800B2 (en) * | 2017-11-09 | 2019-08-06 | International Business Machines Corporation | Cognitive slide management method and system |
US11663182B2 (en) * | 2017-11-21 | 2023-05-30 | Maria Emma | Artificial intelligence platform with improved conversational ability and personality development |
US11200241B2 (en) * | 2017-11-22 | 2021-12-14 | International Business Machines Corporation | Search query enhancement with context analysis |
WO2019155716A1 (ja) * | 2018-02-08 | 2019-08-15 | ソニー株式会社 | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム |
EP3718041A1 (en) * | 2018-03-21 | 2020-10-07 | Google LLC | Data transfer in secure processing environments |
US10680993B2 (en) * | 2018-03-30 | 2020-06-09 | Facebook, Inc. | Sonic social network |
CN116959420A (zh) * | 2018-04-16 | 2023-10-27 | 谷歌有限责任公司 | 自动地确定用于经由自动化助理接口接收的口头话语的语音辨识的语言 |
US10679615B2 (en) * | 2018-04-16 | 2020-06-09 | Google Llc | Adaptive interface in a voice-based networked system |
EP3766066B1 (en) * | 2018-04-19 | 2024-02-21 | Microsoft Technology Licensing, LLC | Generating response in conversation |
US11307880B2 (en) * | 2018-04-20 | 2022-04-19 | Meta Platforms, Inc. | Assisting users with personalized and contextual communication content |
EP3796178B1 (en) * | 2018-05-07 | 2023-08-30 | Google LLC | Immersive web-based simulator for digital assistant-based applications |
US11210718B1 (en) * | 2018-06-07 | 2021-12-28 | Amazon Technologies, Inc. | Dynamically modifying user interfaces according to predicted user preference |
-
2019
- 2019-04-25 WO PCT/JP2019/017734 patent/WO2019235100A1/ja active Application Filing
- 2019-04-25 JP JP2020523565A patent/JP6944594B2/ja active Active
- 2019-04-25 US US17/044,099 patent/US11604831B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2019235100A1 (ja) | 2019-12-12 |
JPWO2019235100A1 (ja) | 2021-03-11 |
US11604831B2 (en) | 2023-03-14 |
US20210103619A1 (en) | 2021-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11017767B2 (en) | Hierarchical attention for spoken dialogue state tracking | |
US10699066B2 (en) | Identifying and mapping emojis | |
US20200210505A1 (en) | Electronic apparatus and controlling method thereof | |
JP7166350B2 (ja) | 対話装置 | |
US11675979B2 (en) | Interaction control system and interaction control method using machine learning model | |
US20210158210A1 (en) | Hybrid in-domain and out-of-domain document processing for non-vocabulary tokens of electronic documents | |
WO2019202788A1 (ja) | 対話システム | |
JP6944594B2 (ja) | 対話装置 | |
JP7003228B2 (ja) | 対話サーバ | |
JP7043593B2 (ja) | 対話サーバ | |
JP6975323B2 (ja) | 対話サーバ | |
US11663420B2 (en) | Dialogue system | |
CN113360590B (zh) | 兴趣点信息的更新方法、装置、电子设备及存储介质 | |
JP7033195B2 (ja) | 対話装置 | |
JP7323370B2 (ja) | 審査装置 | |
JP6745402B2 (ja) | 質問推定装置 | |
JP7016405B2 (ja) | 対話サーバ | |
US20210005200A1 (en) | Dialog device | |
WO2019207962A1 (ja) | 興味推定装置 | |
WO2024053187A1 (ja) | メッセージ送信装置 | |
JP6960049B2 (ja) | 対話装置 | |
CN110942306A (zh) | 数据处理方法、装置及电子设备 | |
CN113010784B (zh) | 用于生成预测信息的方法、装置、电子设备和介质 | |
JP6723449B2 (ja) | 単独推定装置 | |
US20220300519A1 (en) | Re-ranking device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200730 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210817 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210910 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6944594 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |