JP7350384B1 - Dialogue system and dialogue method - Google Patents

Dialogue system and dialogue method Download PDF

Info

Publication number
JP7350384B1
JP7350384B1 JP2022087631A JP2022087631A JP7350384B1 JP 7350384 B1 JP7350384 B1 JP 7350384B1 JP 2022087631 A JP2022087631 A JP 2022087631A JP 2022087631 A JP2022087631 A JP 2022087631A JP 7350384 B1 JP7350384 B1 JP 7350384B1
Authority
JP
Japan
Prior art keywords
user
response
attribute information
response sentence
user attribute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022087631A
Other languages
Japanese (ja)
Other versions
JP2023175269A (en
Inventor
真由美 稲場
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2022087631A priority Critical patent/JP7350384B1/en
Priority to JP2023078897A priority patent/JP2023175637A/en
Application granted granted Critical
Publication of JP7350384B1 publication Critical patent/JP7350384B1/en
Publication of JP2023175269A publication Critical patent/JP2023175269A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】ユーザに適した対話を可能とする対話システムを提供することを目的とする。【解決手段】少なくとも1のコンピュータ装置を備える対話システムであって、ユーザの発話の入力を受け付ける発話入力手段と、ユーザ属性情報を項目ごとに記憶するユーザ属性記憶手段と、ユーザの発話に対する応答文を項目と関連付けて記憶する応答文記憶手段と、発話に含まれる単語に関連するユーザ属性情報が該当する項目に対応する応答文のいずれか1以上を選択する応答文選択手段と、選択された応答文に対応する応答の音声を出力する応答出力手段とを備える、対話システム。【選択図】 図8An object of the present invention is to provide a dialogue system that enables dialogue suitable for users. [Solution] A dialogue system comprising at least one computer device, a speech input means for receiving input of a user's speech, a user attribute storage means for storing user attribute information for each item, and a response sentence to the user's speech. a response sentence storage means for storing a response sentence in association with an item; a response sentence selection means for selecting one or more response sentences corresponding to an item to which user attribute information related to a word included in the utterance corresponds; A dialogue system comprising: a response output means for outputting a response voice corresponding to a response sentence. [Selection diagram] Figure 8

Description

特許法第30条第2項適用 令和4年5月12日に福祉用具展示会にて公開。Applicable to Article 30, Paragraph 2 of the Patent Act Published at the Welfare Equipment Exhibition on May 12, 2020.

本発明は、対話システム、及び対話方法に関する。 The present invention relates to a dialogue system and a dialogue method.

高齢者の人口増加に伴い、一人暮らしの高齢者のサポートや、施設の介護者のサポートの必要性が増大している。 As the elderly population increases, the need for support for elderly people living alone and for caregivers in facilities is increasing.

特に、高齢者が他者と対話する機会が減少することで、高齢者の認知機能や嚥下機能が低下しやすくなることが知られており、高齢者が他者と対話する機会を確保することは重要である。 In particular, it is known that when elderly people have fewer opportunities to interact with others, their cognitive and swallowing functions are more likely to decline, so it is important to ensure that elderly people have opportunities to interact with others. is important.

例えば、特許文献1には、高齢者と好適なコミュニケーション(雑談型対話)を図ることができるようにするロボット制御装置が記載されている。特許文献1には、ロボット制御装置が、対話中の話題について、関連性の高い話題を選び発話することが記載されている。 For example, Patent Document 1 describes a robot control device that enables suitable communication (chat-type dialogue) with elderly people. Patent Document 1 describes that a robot control device selects and speaks highly relevant topics during a conversation.

特開2008-158697号公報Japanese Patent Application Publication No. 2008-158697

本発明の少なくとも1つの目的は、ユーザに適した対話を可能とする対話システムを提供することである。 At least one object of the present invention is to provide a dialogue system that allows user-friendly dialogue.

本発明によれば、上記目的は、
[1]少なくとも1のコンピュータ装置を備える対話システムであって、ユーザの発話の入力を受け付ける発話入力手段と、ユーザ属性情報を項目ごとに記憶するユーザ属性記憶手段と、ユーザの発話に対する応答文を項目と関連付けて記憶する応答文記憶手段と、発話に含まれる単語に関連するユーザ属性情報が該当する項目に対応する応答文のいずれか1以上を選択する応答文選択手段と、選択された応答文に対応する応答の音声を出力する応答出力手段とを備える、対話システム;
[2]ユーザ属性情報が、ユーザの名前、生年月日、年齢、性別、血液型、星座、所持品、居住地、出身地、嗜好、習慣、経験、SNS(ソーシャル・ネットワーキング・サービス)、家族、友人、及び/又は知人に関する情報を含むものである、上記[1]に記載の対話システム;
[3]対話システムが、ユーザ属性情報を入力するユーザ属性情報入力手段を備え、ユーザ属性記憶手段が、入力されたユーザ属性情報を記憶するものである、上記[1]又は[2]に記載の対話システム;
[4]応答文記憶手段が、1の項目に対応する応答文を複数記憶するものであり、応答文選択手段が、記憶された複数の応答文のいずれか1以上を選択するものである、上記[1]~[3]のいずれかに記載の対話システム;
[5]対話システムが、ユーザ属性情報を基にユーザのタイプを診断するタイプ診断手段を備え、応答文記憶手段が、1の項目に対応する応答文をタイプごとに複数記憶するものであり、応答文選択手段が、診断されたユーザのタイプに対応する応答文のいずれか1以上を選択するものである、上記[1]~[4]のいずれかに記載の対話システム;
[6]対話システムが、ユーザの発話に含まれ得る単語の発音のバリエーションを、該単語と関連付けて記憶する発音記憶手段と、記憶された発音のバリエーションがユーザの発話に含まれる場合に、該単語を発話したと特定する発話特定手段とを備える、上記[1]~[5]のいずれかに記載の対話システム;
[7]対話システムが、ユーザの属性情報と、ユーザ以外の人物の属性情報とを基に、ユーザと該人物との関係性を診断する関係性診断手段を備え、応答文記憶手段が、関係性ごとの応答文を記憶するものであり、応答文選択手段が、診断されたユーザと該人物との関係性に対応する応答文のいずれか1以上を選択するものである、上記[1]~[6]のいずれかに記載の対話システム;
[8]対話システムが、ユーザのSNSに関する情報を基に応答文を作成する応答文作成手段を備え、応答文記憶手段が、作成された応答文を記憶するものである、上記[2]~[7]のいずれかに記載の対話システム;
[9]少なくとも1のコンピュータ装置を備える対話システムにおいて実行される対話方法であって、ユーザの発話の入力を受け付ける発話入力ステップと、ユーザ属性情報を項目ごとに記憶するユーザ属性記憶ステップと、ユーザの発話に対する応答文を項目と関連付けて記憶する応答文記憶ステップと、発話に含まれる単語と関連するユーザ属性情報が該当する項目に対応する応答文のいずれか1以上を選択する応答文選択ステップと、選択された応答文に対応する応答の音声を出力する応答出力ステップとを有する、対話方法;
[10]少なくとも1のコンピュータ装置を備える対話システムであって、ユーザ属性情報を項目ごとに記憶するユーザ属性記憶手段と、ユーザの発話に対する応答文を項目と関連付けて記憶する応答文記憶手段と、ユーザの発話に含まれる単語と関連するユーザ属性情報が該当する項目に対応する応答文のいずれか1以上を選択する応答文選択手段とを備える、対話システム;
により達成することができる。
According to the invention, the above objectives are:
[1] An interaction system comprising at least one computer device, comprising a speech input means for receiving input of user's speech, a user attribute storage means for storing user attribute information for each item, and a response sentence to the user's speech. response sentence storage means for storing in association with the item; response sentence selection means for selecting one or more response sentences corresponding to the item to which the user attribute information related to the word included in the utterance corresponds; and the selected response. A dialogue system comprising: a response output means for outputting a response voice corresponding to a sentence;
[2] User attribute information includes the user's name, date of birth, age, gender, blood type, zodiac sign, belongings, place of residence, place of birth, preferences, habits, experience, SNS (social networking service), family , friends, and/or acquaintances, the dialogue system according to [1] above;
[3] The dialog system described in [1] or [2] above, wherein the dialogue system includes a user attribute information input means for inputting user attribute information, and the user attribute storage means stores the input user attribute information. dialogue system;
[4] The response sentence storage means stores a plurality of response sentences corresponding to one item, and the response sentence selection means selects one or more of the plurality of stored response sentences; The dialogue system according to any one of [1] to [3] above;
[5] The dialogue system includes type diagnosis means for diagnosing the user type based on user attribute information, and the response sentence storage means stores a plurality of response sentences corresponding to one item for each type, The dialogue system according to any one of [1] to [4] above, wherein the response sentence selection means selects one or more response sentences corresponding to the type of the diagnosed user;
[6] The dialogue system includes a pronunciation storage means for storing pronunciation variations of a word that may be included in a user's utterance in association with the word; The dialogue system according to any one of [1] to [5] above, comprising an utterance specifying means for specifying that a word has been uttered;
[7] The dialogue system includes relationship diagnosis means for diagnosing the relationship between the user and the person based on the user's attribute information and the attribute information of a person other than the user, and the response sentence storage means [1] above, wherein response sentences are stored for each gender, and the response sentence selection means selects one or more of the response sentences corresponding to the relationship between the diagnosed user and the person. The dialogue system according to any one of ~[6];
[8] The dialogue system includes a response sentence creation means for creating a response sentence based on information regarding the user's SNS, and the response sentence storage means stores the created response sentence, [2] to The dialogue system according to any one of [7];
[9] An interaction method executed in an interaction system including at least one computer device, which includes: an utterance input step for receiving user utterance input; a user attribute storage step for storing user attribute information for each item; and a user attribute storage step for storing user attribute information for each item. a response sentence storage step of storing a response sentence to the utterance in association with an item; and a response sentence selection step of selecting one or more of the response sentences corresponding to the item to which the user attribute information associated with the word included in the utterance corresponds. and a response output step of outputting a response voice corresponding to the selected response sentence;
[10] An interaction system comprising at least one computer device, a user attribute storage means for storing user attribute information for each item, a response sentence storage means for storing a response sentence to a user's utterance in association with the item, a dialogue system comprising: a response sentence selection means for selecting one or more response sentences corresponding to an item to which user attribute information related to a word included in a user's utterance is applicable;
This can be achieved by

本発明によれば、ユーザに適した対話を可能とする対話システムを提供することができる。 According to the present invention, it is possible to provide a dialogue system that enables dialogue suitable for users.

本発明の実施の形態にかかる、対話システムの構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of a dialogue system according to an embodiment of the present invention. 本発明の実施の形態にかかる、対話システムにおける初期設定処理のフローチャートを表す図である。FIG. 3 is a diagram showing a flowchart of initial setting processing in the dialog system according to the embodiment of the present invention. 本発明の実施の形態にかかる、対話システムの実行画面の一例を示す図である。FIG. 2 is a diagram showing an example of an execution screen of the dialogue system according to the embodiment of the present invention. 本発明の実施の形態にかかる、対話システムの実行画面の一例を示す図である。FIG. 2 is a diagram showing an example of an execution screen of the dialogue system according to the embodiment of the present invention. 本発明の実施の形態にかかる、対話システムの実行画面の一例を示す図である。FIG. 2 is a diagram showing an example of an execution screen of the dialogue system according to the embodiment of the present invention. 本発明の実施の形態にかかる、対話システムの実行画面の一例を示す図である。FIG. 2 is a diagram showing an example of an execution screen of the dialogue system according to the embodiment of the present invention. 本発明の実施の形態にかかる、対話システムにおける対話処理のフローチャートを表す図である。FIG. 2 is a diagram showing a flowchart of dialogue processing in the dialogue system according to the embodiment of the present invention. 本発明の実施の形態にかかる、対話システムにおける応答選択処理のフローチャートを表す図である。FIG. 3 is a diagram showing a flowchart of response selection processing in the dialogue system according to the embodiment of the present invention. 本発明の実施の形態にかかる、固有名詞登録データテーブルを表す図である。FIG. 3 is a diagram representing a proper noun registration data table according to an embodiment of the present invention. 本発明の実施の形態にかかる、固有名詞登録応答文マスタテーブルを表す図である。FIG. 3 is a diagram representing a proper noun registration response sentence master table according to an embodiment of the present invention. 本発明の実施の形態にかかる、エピソード登録応答文テーブルを表す図である。It is a figure showing an episode registration response sentence table concerning an embodiment of the present invention. 本発明の実施の形態にかかる、関係性マスタテーブル及び対人関係応答文マスタテーブルを表す図である。FIG. 3 is a diagram showing a relationship master table and an interpersonal relationship response sentence master table according to an embodiment of the present invention. 本発明の実施の形態にかかる、基本対話マスタテーブルを表す図である。FIG. 3 is a diagram representing a basic dialogue master table according to an embodiment of the present invention.

以下、添付図面を参照して、本発明の実施の形態について説明する。以下、効果に関する記載は、本発明の実施の形態の効果の一側面であり、ここに記載するものに限定されない。また、以下で説明するフローチャートを構成する各処理の順序は、処理内容に矛盾や不整合が生じない範囲で順不同である。 Embodiments of the present invention will be described below with reference to the accompanying drawings. The following description regarding effects is one aspect of the effects of the embodiments of the present invention, and is not limited to what is described here. Further, the order of each process constituting the flowchart described below is random as long as there is no contradiction or inconsistency in the process contents.

以下、高齢者がユーザとなる対話システムを例としてあげるが、本発明の対話システムのユーザは、高齢者に限定されるものではない。本発明の対話システムのユーザは、例えば、子どもや、高齢ではない大人であってもよい。 Hereinafter, an example of a dialogue system in which the users are elderly people will be given, but the users of the dialogue system of the present invention are not limited to elderly people. Users of the dialogue system of the present invention may be, for example, children or non-elderly adults.

また、以下では、ユーザの補助をする補助者が、対話システムに登録し、初期設定などを行うこととするが、補助者以外の者が対話システムに登録し、初期設定などを行ってもよい。例えば、ユーザ自身が対話システムに登録し、初期設定などを行ってもよい。 In addition, in the following, an assistant who assists the user will register with the dialogue system and perform initial settings, etc., but a person other than the assistant may register with the dialogue system and perform initial settings, etc. . For example, the user himself/herself may register in the dialogue system and perform initial settings.

なお、「補助者」とは、ユーザの補助をする者のことであればよい。例えば、「補助者」には、ユーザの家族、ケアマネージャー、介護者、ユーザが入所している施設の職員などが含まれる。 Note that the "assistant" may be any person who assists the user. For example, "assistants" include the user's family, care manager, caregiver, staff at the facility where the user is admitted, and the like.

[対話システムの構成]
図1は、本発明の実施の形態にかかる、対話システムの構成を示すブロック図である。図示するように、対話システムは、ユーザとの対話を行う対話装置1と、ユーザを補助する補助者により操作される補助者端末2と、通信ネットワーク3と、サーバ装置4とから構成される。対話装置1と補助者端末2、対話装置1とサーバ装置4、補助者端末2とサーバ装置4は、それぞれ、通信ネットワーク3を介して接続されている。なお、対話装置1と補助者端末2、対話装置1とサーバ装置4、補助者端末2とサーバ装置4は、常時接続していなくてもよく、必要に応じて、接続が可能であればよい。
[Dialogue system configuration]
FIG. 1 is a block diagram showing the configuration of a dialogue system according to an embodiment of the present invention. As shown in the figure, the dialogue system includes a dialogue device 1 that performs dialogue with a user, an assistant terminal 2 operated by an assistant who assists the user, a communication network 3, and a server device 4. The dialogue device 1 and the assistant terminal 2, the dialogue device 1 and the server device 4, and the assistant terminal 2 and the server device 4 are each connected via a communication network 3. Note that the dialogue device 1 and the assistant terminal 2, the dialogue device 1 and the server device 4, and the assistant terminal 2 and the server device 4 do not need to be connected all the time, as long as they can be connected as necessary. .

対話装置1は、ユーザとの対話を行うことができればよく、特に限定されない。例えば、対話装置1は、制御部、マイクなどの音声の入力部、スピーカなどの音声の出力部、ストレージ部、通信インタフェースを備えていてもよい。 The dialogue device 1 is not particularly limited as long as it can have a dialogue with the user. For example, the dialogue device 1 may include a control unit, a voice input unit such as a microphone, a voice output unit such as a speaker, a storage unit, and a communication interface.

対話装置1の形状は特に限定されず、適宜設計可能である。対話装置1の形状は、例えば、人や犬などの動物、草や花などの植物、雪だるまやカカシなどのオブジェクトなどを模したものであってもよい。あるいは、対話装置1の形状は、球体、円筒体などの幾何学的な形状であってもよい。つまり、対話装置1は、ロボットのような外観のものでも、スマートスピーカーのような外観のものでもよい。ユーザにとって愛着が湧きやすいという観点からは、対話装置1の外観は、ロボットのようなものであってもよい。 The shape of the dialogue device 1 is not particularly limited and can be designed as appropriate. The shape of the dialogue device 1 may be, for example, one imitating an animal such as a person or a dog, a plant such as grass or a flower, an object such as a snowman or a scarecrow, or the like. Alternatively, the shape of the dialogue device 1 may be a geometric shape such as a sphere or a cylinder. That is, the interaction device 1 may have an appearance like a robot or a smart speaker. From the viewpoint of ease of attachment to the user, the appearance of the dialogue device 1 may be similar to that of a robot.

また、対話装置1は、デスクトップ型・ノート型のパーソナルコンピュータ、タブレット型端末、スマートフォン、従来型の携帯電話などであってもよい。 Furthermore, the interaction device 1 may be a desktop or notebook personal computer, a tablet terminal, a smartphone, a conventional mobile phone, or the like.

補助者端末2は、対話システムの初期設定を行うことができればよく、特に限定されない。補助者端末2は、例えば、制御部、入力部、表示部、及び通信インタフェースを備えていてもよい。具体的には、補助者端末2は、デスクトップ型・ノート型のパーソナルコンピュータ、タブレット型端末、スマートフォン、従来型の携帯電話などであってよい。 The assistant terminal 2 is not particularly limited as long as it can perform the initial settings of the dialogue system. The assistant terminal 2 may include, for example, a control section, an input section, a display section, and a communication interface. Specifically, the assistant terminal 2 may be a desktop or notebook personal computer, a tablet terminal, a smartphone, a conventional mobile phone, or the like.

サーバ装置4は、例えば、制御部、RAM、ストレージ部及び通信インタフェースを備え、それぞれ内部バスにより接続されていてもよい。制御部は、CPUやROMから構成され、ストレージ部に格納されたプログラムを実行し、サーバ装置4の制御を行う。RAMは、制御部のワークエリアである。ストレージ部は、プログラムやデータを保存するための記憶領域である。制御部は、プログラム及びデータをRAMから読み出し、対話装置1、及び補助者端末2から受信した要求情報をもとに、プログラム実行処理を行う。通信インタフェースは、無線又は有線により通信ネットワーク3に接続が可能であり、通信ネットワーク3を介してデータを受信することが可能である。通信インタフェースを介して受信したデータは、RAMにロードされ、制御部により演算処理が行われる。 The server device 4 may include, for example, a control unit, a RAM, a storage unit, and a communication interface, and may be connected to each other by an internal bus. The control unit includes a CPU and a ROM, executes programs stored in the storage unit, and controls the server device 4. RAM is a work area for the control unit. The storage unit is a storage area for storing programs and data. The control unit reads the program and data from the RAM, and executes the program based on the request information received from the interaction device 1 and the assistant terminal 2. The communication interface can be connected to the communication network 3 wirelessly or by wire, and can receive data via the communication network 3. Data received via the communication interface is loaded into the RAM, and arithmetic processing is performed by the control unit.

なお、ここでは、対話装置1、補助者端末2、通信ネットワーク3、及びサーバ装置4を備える対話システムを例にあげるが、対話システムは、少なくとも1のコンピュータ装置を備えていればよい。 Note that although here, a dialogue system including a dialogue device 1, an assistant terminal 2, a communication network 3, and a server device 4 is taken as an example, the dialogue system only needs to include at least one computer device.

例えば、対話システムは、対話装置1のみから構成されるものでもよく、サーバ装置4の代わりにブロックチェーン技術を用いて構成されるものでもよく、サーバ装置4の代わりにP2P(Peer to Peer)の技術を用いて構成されるものでもよい。また、対話システムは、複数のサーバ装置4がAPI(Application Programming Interface)を利用して連携するよう構成されてもよい。 For example, the dialog system may be configured only with the dialog device 1, or may be configured using blockchain technology instead of the server device 4, or may be configured using P2P (Peer to Peer) instead of the server device 4. It may also be configured using technology. Further, the dialogue system may be configured such that a plurality of server devices 4 cooperate using an API (Application Programming Interface).

また、例えば、対話システムは、仮想空間内での対話に用いられてもよい。つまり、対話システムは、ユーザが、仮想空間内に存在するキャラクタやオブジェクトと対話を行う際に用いられてもよい。この場合、ユーザは、仮想空間内に存在する自身のアバタを介して、仮想空間内に存在するキャラクタやオブジェクトと対話を行ってもよく、現実の空間内から、仮想空間を表示する画面を介して、仮想空間内に存在するキャラクタやオブジェクトと対話を行ってもよい。また、仮想空間内に存在するキャラクタやオブジェクトは、コンピュータ装置により自動制御されていてもよい。 Further, for example, the dialogue system may be used for dialogue within a virtual space. That is, the dialogue system may be used when a user interacts with a character or object existing in a virtual space. In this case, the user may interact with characters and objects that exist in the virtual space through his or her avatar that exists in the virtual space, or interact with characters and objects that exist in the virtual space from within the real space through the screen that displays the virtual space. You may also interact with characters and objects that exist in the virtual space. Further, characters and objects existing in the virtual space may be automatically controlled by a computer device.

ここでは、1つの対話装置1と対話を行うユーザは1人であることとするが、1つの対話装置1と対話を行うユーザは2人以上であってもよい。1つの対話装置1と対話を行うユーザが2人以上である場合、対話システムにより、いずれのユーザが対話を求めているかが識別されることとしてもよい。例えば、対話装置1にカメラが備えられ、いずれのユーザが対話を求めているかをユーザの顔の画像により識別することとしてもよい。あるいは、対話システムにユーザごとの声の特徴に関する情報が記憶され、いずれのユーザが対話を求めているかをユーザの声の特徴を解析することにより識別することとしてもよい。ユーザを識別するための情報は、後述する初期設定処理において、対話システムに予め登録されていることとしてもよい。また、ユーザを識別するための解析処理には、従来公知の技術を利用することができる。 Here, it is assumed that the number of users who interact with one dialogue device 1 is one, but the number of users who interact with one dialogue device 1 may be two or more. When two or more users interact with one interaction device 1, the interaction system may identify which user is requesting interaction. For example, the dialogue device 1 may be equipped with a camera, and which user is requesting dialogue may be identified based on an image of the user's face. Alternatively, information regarding the voice characteristics of each user may be stored in the dialogue system, and which user is requesting dialogue may be identified by analyzing the user's voice characteristics. The information for identifying the user may be registered in advance in the dialog system in the initial setting process described later. Furthermore, conventionally known techniques can be used for analysis processing to identify users.

本発明の対話システムを利用するにあたり、補助者は、予め、ユーザの属性に関する情報(以下、ユーザ属性情報ともいう)を対話システムに登録することとする。ユーザ属性情報は、ユーザに属する性質、及び/又は特徴を表すものである。補助者は、対話システムを利用するためのURLにアクセスし、ユーザ属性情報の登録を行う。ユーザ属性情報の登録の際には、対話システムにおいて、以下のような初期設定処理が行われる。 In using the dialogue system of the present invention, the assistant registers information regarding user attributes (hereinafter also referred to as user attribute information) in the dialogue system in advance. User attribute information represents properties and/or characteristics belonging to a user. The assistant accesses the URL for using the dialogue system and registers user attribute information. When registering user attribute information, the following initial setting process is performed in the dialog system.

[初期設定処理]
図2は、本発明の実施の形態にかかる、対話システムにおける初期設定処理のフローチャートを表す図である。
[Initial setting process]
FIG. 2 is a diagram showing a flowchart of initial setting processing in the dialog system according to the embodiment of the present invention.

まず、補助者端末2において、初期設定画面を表示する要求が入力される(ステップS101)。入力された初期設定画面を表示する要求は、補助者端末2からサーバ装置4へ送信される(ステップS102)。送信された初期設定画面を表示する要求は、サーバ装置4において受信される(ステップS103)。そして、サーバ装置4から補助者端末2へ、初期設定画面を表示するための情報が送信される(ステップS104)。送信された初期設定画面を表示するための情報は、補助者端末2において受信される(ステップS105)。そして、補助者端末2において、初期設定画面が表示される(ステップS106)。次に、補助者端末2において、ユーザ属性情報が入力される(ステップS107)。入力されたユーザ属性情報は、補助者端末2からサーバ装置4へ送信される(ステップS108)。送信されたユーザ属性情報は、サーバ装置4において受信される(ステップS109)。そして、受信されたユーザ属性情報は、サーバ装置4において記憶され(ステップS110)、初期設定処理が終了する。 First, a request to display an initial setting screen is input to the assistant terminal 2 (step S101). The input request to display the initial setting screen is transmitted from the assistant terminal 2 to the server device 4 (step S102). The transmitted request to display the initial setting screen is received by the server device 4 (step S103). Then, information for displaying the initial setting screen is transmitted from the server device 4 to the assistant terminal 2 (step S104). The transmitted information for displaying the initial setting screen is received by the assistant terminal 2 (step S105). Then, an initial setting screen is displayed on the assistant terminal 2 (step S106). Next, user attribute information is input at the assistant terminal 2 (step S107). The input user attribute information is transmitted from the assistant terminal 2 to the server device 4 (step S108). The transmitted user attribute information is received by the server device 4 (step S109). The received user attribute information is then stored in the server device 4 (step S110), and the initial setting process ends.

上記の、ステップS101~ステップS106における初期設定画面の表示、及び、ステップS107におけるユーザ属性情報の入力にかかる処理について、図3~6を参照しながら説明する。 The above-described processes related to displaying the initial setting screen in steps S101 to S106 and inputting user attribute information in step S107 will be explained with reference to FIGS. 3 to 6.

以下においては、ユーザ属性情報の初期設定として、ユーザの基本的な情報についての設定登録である基本情報登録、ユーザに固有の名詞に関する情報についての設定登録である固有名詞登録、ユーザに固有のエピソードに関する情報についての設定登録であるエピソード登録、ユーザにリマインドすべき情報についての設定登録であるリマインド登録、及び、ユーザの対人関係に関する情報についての設定登録である対人関係登録の5種類の初期設定を行う例について説明する。 In the following, the initial settings for user attribute information include basic information registration, which is the registration of basic information about the user, proper noun registration, which is the registration of information about nouns unique to the user, and episode registration unique to the user. There are five types of initial settings: episode registration, which is the setting registration of information about the user, reminder registration, which is the setting registration of information that should be reminded to the user, and interpersonal relationship registration, which is the setting registration of information about the user's interpersonal relationships. An example will be explained below.

図3は、本発明の実施の形態にかかる、対話システムの実行画面の一例を示す図である。 FIG. 3 is a diagram showing an example of an execution screen of the dialogue system according to the embodiment of the present invention.

補助者端末2から対話システムを利用するためのURLにアクセスすると、補助者端末2の表示画面には、対話システムの実行画面1000として、対話システム利用サイトのトップページが表示される。なお、対話システム利用サイトのトップページが表示される前に、対話システムに登録している登録者のIDとパスワードの入力が求められてもよい。 When the URL for using the dialogue system is accessed from the assistant terminal 2, the top page of the dialogue system usage site is displayed on the display screen of the assistant terminal 2 as the execution screen 1000 of the dialogue system. Note that before the top page of the dialog system usage site is displayed, the user may be required to input the ID and password of the registrant who is registered in the dialog system.

図3においては、トップページの左側の欄の上部に登録者の名前1001が表示され、トップページの左側の欄の下部に対話システムからログアウトするためのログアウトボタン1002が表示されている。図3では、対話システムの登録者の名前1001として、「特許 太郎」という名前が表示されている。 In FIG. 3, a registrant's name 1001 is displayed at the top of the left column of the top page, and a logout button 1002 for logging out from the dialog system is displayed at the bottom of the left column of the top page. In FIG. 3, the name "Taro Patent" is displayed as the name 1001 of the registrant of the dialogue system.

また、図3においては、登録者の名前1001とログアウトボタン1002の間に、個人情報アイコン1100、基本情報設定アイコン1200、固有名詞設定アイコン1300、エピソード設定アイコン1400、リマインド設定アイコン1500、及び対人関係設定アイコン1600が表示されている。 In addition, in FIG. 3, between the registrant's name 1001 and the logout button 1002, there are a personal information icon 1100, a basic information setting icon 1200, a proper noun setting icon 1300, an episode setting icon 1400, a reminder setting icon 1500, and an interpersonal relationship icon. A settings icon 1600 is displayed.

図示しないが、実行画面1000に表示された個人情報アイコン1100が押下されると、トップページの右側の欄に、対話システムに記憶された登録者やユーザに関する情報を閲覧、及び/又は編集するための個人情報画面が表示される。例えば、個人情報画面において、基本情報登録、固有名詞登録、エピソード登録、リマインド登録、対人関係登録された情報の内容を閲覧、及び/又は編集することできる。また、個人情報画面において、後述の、ユーザ属性情報を基に診断されたユーザのタイプ、ユーザ以外の人物の属性情報を基に診断された該人物のタイプ、及び、ユーザ属性情報とユーザ以外の人物の属性情報とを基に診断されたユーザと該人物の関係性を閲覧することできる。 Although not shown, when the personal information icon 1100 displayed on the execution screen 1000 is pressed, a column on the right side of the top page is displayed for viewing and/or editing information about registrants and users stored in the dialog system. The personal information screen will be displayed. For example, on the personal information screen, the contents of basic information registration, proper noun registration, episode registration, reminder registration, and interpersonal relationship registration can be viewed and/or edited. In addition, on the personal information screen, the user type diagnosed based on user attribute information, the type of person diagnosed based on the attribute information of a person other than the user, and the user attribute information and The relationship between the user diagnosed based on the person's attribute information and the person can be viewed.

次に、ユーザの基本的な情報を登録するための、基本情報登録について説明する。 Next, basic information registration for registering basic user information will be explained.

対話システム利用サイトのトップページの左側の欄に表示された基本情報設定アイコン1200が押下されると、ステップS101において、ユーザの基本的な情報について設定登録を行うための初期設定画面を表示する要求が入力されたこととなる。そして、ステップS106において、図3の右側の欄に示すような、ユーザの基本的な情報について設定登録を行うための初期設定画面、すなわち、基本情報設定画面1201が表示される。 When the basic information setting icon 1200 displayed in the left column of the top page of the dialog system usage site is pressed, in step S101, a request is made to display an initial setting screen for registering settings for the user's basic information. has been input. Then, in step S106, an initial setting screen for registering settings for the user's basic information, that is, a basic information setting screen 1201, as shown in the right column of FIG. 3, is displayed.

図3に示すように、基本情報設定画面1201には、ユーザの名前1202、ユーザのニックネーム1203、ユーザの生年月日1204、ロボットの名前1205、及びロボットのID1206を入力するための欄が表示される。ステップS107において、補助者は、基本情報設定画面1201に表示された項目について、ユーザ属性情報を入力することができる。 As shown in FIG. 3, fields for entering the user's name 1202, user's nickname 1203, user's date of birth 1204, robot's name 1205, and robot's ID 1206 are displayed on the basic information setting screen 1201. Ru. In step S107, the assistant can input user attribute information for the items displayed on the basic information setting screen 1201.

図3においては、ユーザの名前1202として「特許 花子」、ユーザのニックネーム1203として「はなちゃん」、ユーザの生年月日1204として「1932年1月1日」、ロボットの名前1205として「えもちゃん」、及び、ロボットのID1206として「12345」という情報が入力されている。なお、ここでは、「ロボット」は、対話装置1のことを指すものとする。 In FIG. 3, the user's name 1202 is "Patent Hanako", the user's nickname 1203 is "Hana-chan", the user's date of birth 1204 is "January 1, 1932", the robot's name 1205 is "Emo-chan", Also, information "12345" is input as the robot ID 1206. Note that here, the "robot" refers to the dialogue device 1.

ユーザ属性情報が入力された状態で、基本情報設定画面1201の右上に表示された保存ボタン1207が押下されると、ステップS108において、入力されたユーザ属性情報がサーバ装置4へ送信されることとなる。そして、入力されたユーザ属性情報は、ステップS110において、入力された欄の項目と関連付けて、サーバ装置4に記憶される。以下、基本情報設定画面1201において入力され、サーバ装置4に記憶された情報を、「基本情報登録された情報」ともいう。 When the save button 1207 displayed at the upper right of the basic information setting screen 1201 is pressed with the user attribute information input, the input user attribute information is transmitted to the server device 4 in step S108. Become. The input user attribute information is then stored in the server device 4 in association with the item in the input column in step S110. Hereinafter, the information input on the basic information setting screen 1201 and stored in the server device 4 will also be referred to as "basic information registered information."

上記においては、基本情報登録されるユーザ属性情報は、ユーザの名前、ユーザのニックネーム、ユーザの生年月日、ユーザと対話を行うロボットの名前、及び該ロボットのIDであることとしたが、他のユーザ属性情報が基本情報登録されてもよい。例えば、基本情報登録されるユーザ属性情報には、ユーザの年齢、性別、血液型、星座、所持品、居住地、出身地、SNS(ソーシャル・ネットワーキング・サービス)などに関する情報が含まれていてもよい。 In the above, the user attribute information to be registered as basic information is the user's name, the user's nickname, the user's date of birth, the name of the robot that interacts with the user, and the ID of the robot. User attribute information may be registered as basic information. For example, the user attribute information registered as basic information may include information regarding the user's age, gender, blood type, zodiac sign, belongings, place of residence, place of birth, SNS (Social Networking Service), etc. good.

また、ユーザの生年月日に関する情報は、生まれ年、生まれ月、及び生まれた日ごとに記憶されることとしてもよい。 Further, the information regarding the user's date of birth may be stored for each year of birth, month of birth, and day of birth.

さらに、ユーザ属性情報は、入力された他のユーザ属性情報を基に、自動的に特定され、項目と関連付けて記憶されてもよい。例えば、ユーザの生年月日に関する情報を基に、ユーザの年齢や星座が特定され、項目と関連付けて記憶されてもよい。あるいは、例えば、ユーザのSNSに関する情報を基に、ユーザの名前、ニックネーム、生年月日、年齢、性別、血液型、星座、所持品、居住地、出身地などが特定され、項目と関連付けて記憶されてもよい。ユーザのSNSに関する情報とは、例えば、SNSのアカウントに関する情報、SNSのアカウントにおいて登録されているプロフィールに関する情報、SNS上で公開されている投稿内容に関する情報、SNS上で紐づいている他のユーザに関する情報などのことであってもよい。 Furthermore, the user attribute information may be automatically specified based on other input user attribute information and stored in association with the item. For example, the user's age and zodiac sign may be specified based on information regarding the user's date of birth and stored in association with the item. Alternatively, for example, the user's name, nickname, date of birth, age, gender, blood type, zodiac sign, belongings, place of residence, place of birth, etc. are identified based on information about the user's SNS, and are stored in association with the item. may be done. Information related to the user's SNS includes, for example, information related to the SNS account, information related to the profile registered in the SNS account, information related to posted content published on the SNS, and other users linked on the SNS. It may also be information related to.

ユーザのSNSに関する情報を基に、他のユーザ属性情報を特定する方法は、特に限定されず、適宜設計可能である。ユーザのSNSに関する情報を基に他のユーザ属性情報を特定するためには、自然言語処理技術、グラフマイニング技術、画像処理技術など、公知の技術を利用することができる。 A method for specifying other user attribute information based on information regarding the user's SNS is not particularly limited, and can be designed as appropriate. In order to specify other user attribute information based on information regarding the user's SNS, known technologies such as natural language processing technology, graph mining technology, and image processing technology can be used.

例えば、基本情報設定画面1201において、ユーザのSNSのアカウントに関する情報を入力すると、SNSのアカウントにおいて登録されているプロフィールに関する情報、SNS上で公開されている投稿内容に関する情報、SNS上で紐づいている他のユーザに関する情報の中から、ユーザ属性情報が抽出されることとしてもよい。 For example, when information about the user's SNS account is entered on the basic information setting screen 1201, information about the profile registered in the SNS account, information about posted content published on the SNS, information linked on the SNS, etc. User attribute information may be extracted from information regarding other users present.

また、1つのロボットを複数のユーザで使用する場合には、基本情報設定画面1201において、ユーザ属性情報として、ユーザを識別するための情報が登録されることとしてもよい。例えば、基本情報設定画面1201において、ユーザの顔の画像が登録されることとしてもよく、ユーザの声の特徴に関する情報が登録されることとしてもよい。また、ユーザを識別するための情報は、例えば、ユーザのSNSに関する情報を基に、自動的に特定され、記憶されてもよい。 Further, when one robot is used by a plurality of users, information for identifying the users may be registered as user attribute information on the basic information setting screen 1201. For example, on the basic information setting screen 1201, an image of the user's face may be registered, or information regarding the characteristics of the user's voice may be registered. Further, the information for identifying the user may be automatically specified and stored, for example, based on information regarding the user's SNS.

ユーザ属性情報がユーザのSNSに関する情報を基に自動的に特定される場合には、補助者端末2の表示画面に、特定されたユーザ属性情報が表示され、記憶するか否かを補助者が決定できることとしてもよい。また、特定されたユーザ属性情報を、補助者が修正できることとしてもよい。そして、補助者により修正されたユーザ属性情報が記憶されることとしてもよい。後述する、固有名詞登録、エピソード登録、対人関係登録においても、ユーザ属性情報がユーザのSNSに関する情報を基に自動的に特定される場合には、同様に、補助者がユーザ属性情報を修正することができることとしてもよい。 When user attribute information is automatically specified based on information about the user's SNS, the specified user attribute information is displayed on the display screen of the assistant terminal 2, and the assistant can decide whether to store it or not. It may also be something that can be determined. Furthermore, the identified user attribute information may be able to be modified by an assistant. Then, the user attribute information modified by the assistant may be stored. In proper noun registration, episode registration, and interpersonal relationship registration, which will be described later, if user attribute information is automatically specified based on information about the user's SNS, an assistant similarly modifies the user attribute information. It may also be possible to do something.

あるいは、ユーザ属性情報は、他のデータベースに記憶されているユーザ属性情報を基に自動的に特定され、項目と関連付けて記憶されてもよい。例えば、ユーザの入所している施設の入所者を管理するシステムにおいて、ユーザ属性情報を記憶したデータベースを備えている場合には、該データベースの中から、ユーザ属性情報が抽出されることとしてもよい。 Alternatively, the user attribute information may be automatically specified based on user attribute information stored in another database and stored in association with the item. For example, in a system that manages residents of the facility where the user is enrolled, if the system includes a database that stores user attribute information, the user attribute information may be extracted from the database. .

なお、ユーザ属性情報は、項目ごとに記憶されるが、「項目」とは、複数のユーザ属性のいずれかを表すもののことを指すものとする。例えば、「項目」は、そのユーザ属性が、ユーザにとってどのような意味や価値を有するものであるのかを示す区分けのことを指すものとしてもよい。 Note that the user attribute information is stored for each item, and an "item" refers to one that represents any one of a plurality of user attributes. For example, "item" may refer to a classification that indicates what meaning or value the user attribute has for the user.

上記の例では、例えば、「ユーザの名前」が「項目」に相当し、「特許 花子」が「ユーザ属性情報」に相当することとしてもよい。 In the above example, for example, "user name" may correspond to "item" and "Patent Hanako" may correspond to "user attribute information".

また、本発明の対話システムは、入力されたユーザ属性情報を基に、ユーザのタイプを診断することができる。「タイプ」とは、人間を何らかの基準で分類して、その共通する特性をとりだした型のことを指す。例えば、ユーザを、洞察力の高い「ビジョンタイプ」、平和主義の「ピースタイプ」、論理的な「ロジカルタイプ」などに分類してもよい。 Furthermore, the dialog system of the present invention can diagnose the type of user based on input user attribute information. ``Type'' refers to a type that classifies people based on some criteria and extracts their common characteristics. For example, users may be classified into "vision types" who have high insight, "peace types" who are pacifists, "logical types" who are logical, and the like.

本発明の対話システムは、例えば、ユーザの生年月日を基にユーザのタイプを診断してもよく、ユーザの血液型を基にユーザのタイプを診断してもよく、ユーザの星座を基にユーザのタイプを診断してもよい。診断されたユーザのタイプは、前述の、個人情報画面において閲覧できることとしてもよい。 For example, the dialog system of the present invention may diagnose the user's type based on the user's date of birth, may diagnose the user's type based on the user's blood type, and may diagnose the user's type based on the user's zodiac sign. The type of user may be diagnosed. The diagnosed user type may be viewable on the aforementioned personal information screen.

次に、ユーザに固有の名詞、すなわちユーザの固有名詞に関する情報を登録するための、固有名詞登録について説明する。なお、ここでは、「ユーザの固有名詞」は、ユーザに固有の名詞のことを指すものとし、固有名詞でも、普通名詞でもよい。 Next, proper noun registration for registering information about a user's proper noun, that is, a user's proper noun, will be explained. Note that here, the "user's proper noun" refers to a noun specific to the user, and may be a proper noun or a common noun.

図4は、本発明の実施の形態にかかる、対話システムの実行画面の一例を示す図である。 FIG. 4 is a diagram showing an example of an execution screen of the dialogue system according to the embodiment of the present invention.

対話システム利用サイトのトップページの左側の欄に表示された固有名詞設定アイコン1300が押下されると、ステップS101において、ユーザの固有名詞に関する情報について設定登録を行うための初期設定画面を表示する要求が入力されたこととなる。そして、ステップS106において、図4の右側の欄に示すような、ユーザの固有名詞に関する情報について設定登録を行うための初期設定画面、すなわち、固有名詞設定画面1301が表示される。 When the proper noun setting icon 1300 displayed in the left column of the top page of the dialogue system usage site is pressed, in step S101, a request is made to display an initial setting screen for setting and registering information regarding the user's proper noun. has been input. Then, in step S106, an initial setting screen, ie, a proper noun setting screen 1301, for setting and registering information regarding the user's proper noun, as shown in the right column of FIG. 4, is displayed.

図4に示すように、固有名詞設定画面1301には、ユーザの固有名詞の大カテゴリ1302、ユーザの固有名詞の中カテゴリ1303、ユーザの固有名詞1304、及び、ユーザの固有名詞の発音バリエーション1305を入力するための欄が表示される。ステップS107において、補助者は、固有名詞設定画面1301に表示された項目について、ユーザ属性情報を入力することができる。 As shown in FIG. 4, the proper noun setting screen 1301 displays a large category 1302 of the user's proper noun, a medium category 1303 of the user's proper noun, a user's proper noun 1304, and a pronunciation variation 1305 of the user's proper noun. A field for input will be displayed. In step S107, the assistant can input user attribute information for the items displayed on the proper noun setting screen 1301.

図4においては、大カテゴリ1302として「場所」、中カテゴリ1303として「行きつけのカフェ」、ユーザの固有名詞1304として「Bカフェ」、及び、ユーザの固有名詞の発音バリエーション1305として「Bカへ、Bカへー、Bカフェー」という情報が入力されている。 In FIG. 4, the large category 1302 is "place," the medium category 1303 is "favorite cafe," the user's proper noun 1304 is "B cafe," and the user's proper noun pronunciation variation 1305 is "B-ka-to." The information “B-ca-he, B-ca-fe” is input.

ユーザ属性情報が入力された状態で、固有名詞設定画面1301の右上に表示された保存ボタン1306が押下されると、ステップS108において、入力されたユーザ属性情報がサーバ装置4へ送信されることとなる。そして、入力されたユーザ属性情報は、ステップS110において、入力された欄の項目と関連付けて、サーバ装置4に記憶される。以下、固有名詞設定画面1301において入力され、サーバ装置4に記憶された情報を、「固有名詞登録された情報」ともいう。固有名詞登録された情報は、後述する、固有名詞登録データテーブルに記憶される。 When the save button 1306 displayed at the upper right of the proper noun setting screen 1301 is pressed with the user attribute information input, the input user attribute information is transmitted to the server device 4 in step S108. Become. The input user attribute information is then stored in the server device 4 in association with the item in the input column in step S110. Hereinafter, the information input on the proper noun setting screen 1301 and stored in the server device 4 will also be referred to as "proper noun registered information." Information registered as a proper noun is stored in a proper noun registration data table, which will be described later.

上記の例では、例えば、中カテゴリ1303の欄に入力された「行きつけのカフェ」が「項目」に相当し、ユーザの固有名詞1304の欄に入力された「Bカフェ」が「ユーザ属性情報」に相当することとしてもよい。 In the above example, for example, "favorite cafe" entered in the medium category 1303 field corresponds to the "item", and "B cafe" entered in the user's proper noun field 1304 corresponds to "user attribute information". It may be equivalent to .

固有名詞登録されるユーザ属性情報には、嗜好、習慣、家族、友人、知人などに関する情報が含まれていてもよい。例えば、固有名詞登録されるユーザ属性情報には、よく行く場所、よく行くスーパー、よく行くコンビニ、行きつけのカフェ、行きつけのレストラン、行きつけの美容院、行きつけの病院、通っている健康施設、よく行く友人の家、通っている職場、好きな食べ物、苦手な食べ物、好きな果物、苦手な果物、好きな野菜、苦手な野菜、得意なこと、好きなスポーツ、好きな有名人、パートナーの呼び方、同居している家族の名前などの情報が含まれていてもよい。 The user attribute information registered as a proper noun may include information regarding preferences, habits, family, friends, acquaintances, etc. For example, user attribute information that is registered as a proper name includes a place you often go, a supermarket you go to, a convenience store you go to, a cafe you go to, a restaurant you go to, a hair salon you go to, a hospital you go to, a health facility you go to, and a place you go to. My friend's house, my workplace, my favorite foods, foods I don't like, fruits I like, fruits I don't like, vegetables I like, vegetables I don't like, things I'm good at, sports I like, celebrities I like, how to call my partner, etc. Information such as the names of family members living together may be included.

また、固有名詞登録されるユーザ属性情報は、ユーザのSNSに関する情報を基に、自動的に特定され、項目と関連付けて記憶されてもよい。例えば、基本情報設定画面1201において、ユーザのSNSのアカウントに関する情報を入力すると、SNSのアカウントにおいて登録されているプロフィールに関する情報、SNS上で公開されている投稿内容に関する情報、SNS上で紐づいている他のユーザに関する情報の中から、ユーザ属性情報が抽出されることとしてもよい。具体的には、例えば、ユーザのSNS上で公開されている投稿の中に頻出する場所の名前が、ユーザのよく行く場所であると特定され、互いに関連付けて記憶されてもよい。 Further, the user attribute information registered as a proper name may be automatically specified based on information regarding the user's SNS, and may be stored in association with the item. For example, when information about the user's SNS account is entered on the basic information setting screen 1201, information about the profile registered in the SNS account, information about posted content published on the SNS, information linked on the SNS, etc. User attribute information may be extracted from information regarding other users present. Specifically, for example, names of places that frequently appear in posts published on the user's SNS may be identified as places that the user often goes to, and may be stored in association with each other.

ユーザの固有名詞の発音バリエーション1305の欄には、ユーザの固有名詞1304の欄に入力された単語の一般的な発音ではないが、ユーザの固有名詞1304の欄に入力された単語と同じものを指す発音を入力することができる。例えば、上記の例では、ユーザが「Bカフェ」と発音しようとする際に、実際には、「Bカへ」、「Bカへー」、又は「Bカフェー」と聞こえる発音を行っていることとする。 The user's proper noun pronunciation variation column 1305 displays the same word as the user's proper noun 1304 column, although it is not a common pronunciation of the word entered in the user's proper noun column 1304. You can input the pronunciation you are referring to. For example, in the example above, when the user tries to pronounce "B-cafe," he or she is actually pronouncing the pronunciation as "B-ka-e," "B-ka-he," or "B-cafe." shall be.

そして、ユーザの固有名詞の発音バリエーション1305の欄に入力された発音がユーザの発話に含まれる場合には、ユーザの固有名詞1304の欄に入力された単語を発話したと特定されることとしてもよい。例えば、上記の例では、「Bカフェ」と関連付けて「Bカへ」、「Bカへー」、及び「Bカフェー」という発音バリエーションが記憶されているため、ユーザが「Bカへに行ってきたよ」と発音したときには、ユーザが「Bカフェに行ってきたよ」と発話したと特定することができる。 If the pronunciation entered in the user's proper noun pronunciation variation 1305 field is included in the user's utterance, the user is identified as having uttered the word entered in the proper noun field 1304. good. For example, in the above example, the pronunciation variations "B-ka-e," "B-ka-he," and "B-cafe-ee" are stored in association with "B-cafe," so if the user wants to go to "B-cafe," When the user pronounces ``Tayo,'' it can be determined that the user has uttered ``I went to Cafe B.''

このように、対話システムが、ユーザの発話に含まれ得る単語の発音のバリエーションを、該単語と関連付けて記憶する発音記憶手段と、記憶された発音のバリエーションがユーザの発話に含まれる場合に、該単語を発話したと特定する発話特定手段とを備えることで、ユーザに固有の発音の癖がある場合にも、ユーザの意図を正しく汲み取ることが可能となる。 In this way, the dialogue system includes a pronunciation storage means that stores pronunciation variations of words that may be included in the user's utterances in association with the words, and when the stored pronunciation variations are included in the user's utterances, By providing the utterance specifying means for specifying that the word has been uttered, it is possible to correctly understand the user's intention even if the user has a unique pronunciation habit.

なお、ここでは、ユーザの固有名詞の発音バリエーションを登録できる態様について記載したが、ユーザの固有名詞として登録された単語以外の単語についても、ユーザの発音のバリエーションを登録できることとしてもよい。その場合、対話システム利用サイトの中に、単語の発音のバリエーションの設定を行うための発音バリエーション設定画面を表示することが可能であってもよい。そして、発音バリエーション設定画面において、ユーザの発話に含まれ得る単語と関連付けて、その単語の発音のバリエーションを登録することができることとしてもよい。 Note that here, a mode has been described in which pronunciation variations of the user's proper nouns can be registered, but variations in the user's pronunciation may also be able to be registered for words other than words registered as the user's proper nouns. In that case, it may be possible to display a pronunciation variation setting screen for setting pronunciation variations of words in the dialog system usage site. Then, on the pronunciation variation setting screen, pronunciation variations of the word may be registered in association with words that may be included in the user's utterances.

例えば、ユーザが「ミシュラン」という単語を発音する際に、「ミシラン」と発音していることが多い場合には、「ミシュラン」という単語の発音のバリエーションとして、「ミシラン」と登録することができる。また、例えば、ユーザの出身地では、「かわいい」という単語を、「めんこい」ということが一般的である場合には、「かわいい」という単語の発音のバリエーションとして、「めんこい」と登録することができる。 For example, if a user often pronounces the word "Michelin" as "Michelin", then "Michelin" can be registered as a variation of the pronunciation of the word "Michelin". . Also, for example, if the word "kawaii" is commonly pronounced "menkoi" in the user's hometown, it is possible to register "menkoi" as a variation of the pronunciation of the word "kawaii". can.

次に、ユーザに固有のエピソードに関する情報を登録するための、エピソード登録について説明する。 Next, episode registration for registering information regarding episodes specific to a user will be explained.

図5は、本発明の実施の形態にかかる、対話システムの実行画面の一例を示す図である。 FIG. 5 is a diagram showing an example of an execution screen of the dialogue system according to the embodiment of the present invention.

対話システム利用サイトのトップページの左側の欄に表示されたエピソード設定アイコン1400が押下されると、ステップS101において、ユーザに固有のエピソードに関する情報について設定登録を行うための初期設定画面を表示する要求が入力されたこととなる。そして、ステップS106において、図5の右側の欄に示すような、ユーザに固有のエピソードに関する情報について設定登録を行うための初期設定画面、すなわち、エピソード設定画面1401が表示される。 When the episode setting icon 1400 displayed in the left column of the top page of the dialogue system usage site is pressed, in step S101, a request is made to display an initial setting screen for registering settings for information regarding episodes specific to the user. has been input. Then, in step S106, an initial setting screen, ie, episode setting screen 1401, for registering settings for information regarding episodes specific to the user, as shown in the right column of FIG. 5, is displayed.

図5に示すように、エピソード設定画面1401には、ユーザに固有のエピソードが属する項目のカテゴリ1402、ユーザに固有のエピソードのキーワード1403、及び、ユーザに固有のエピソードの具体的な内容、すなわち具体的なエピソード1404を入力するための欄が表示される。ステップS107において、補助者は、エピソード設定画面1401に表示された項目について、ユーザ属性情報を入力することができる。 As shown in FIG. 5, the episode setting screen 1401 includes a category 1402 of the item to which the user-specific episode belongs, a keyword 1403 of the user-specific episode, and the specific content of the user-specific episode, that is, the specific content of the user-specific episode. A column for inputting a typical episode 1404 is displayed. In step S107, the assistant can input user attribute information for the items displayed on the episode setting screen 1401.

図5においては、カテゴリ1402として「学生時代のこと」、キーワード1403として「バレーボール」、及び、具体的なエピソード1404として「はなこさんは、学生のときにバレーボールが得意で、大会で優勝されたことがあるのですよね。その時に印象的だったことを聞かせてください。」という情報が入力されている。 In FIG. 5, the category 1402 is "student days," the keyword 1403 is "volleyball," and the specific episode 1404 is "Hanako was good at volleyball when she was a student and won a tournament." "Please tell me what impressed you at that time." is entered.

ユーザ属性情報が入力された状態で、エピソード設定画面1401の右上に表示された保存ボタン1405が押下されると、ステップS108において、入力されたユーザ属性情報がサーバ装置4へ送信されることとなる。そして、入力されたユーザ属性情報は、ステップS110において、入力された欄の項目と関連付けて、サーバ装置4に記憶される。以下、エピソード設定画面1401において入力され、サーバ装置4に記憶された情報を、「エピソード登録された情報」ともいう。エピソード登録された情報は、後述する、エピソード登録応答文テーブルに記憶される。 When the save button 1405 displayed at the upper right of the episode setting screen 1401 is pressed with the user attribute information input, the input user attribute information will be transmitted to the server device 4 in step S108. . The input user attribute information is then stored in the server device 4 in association with the item in the input column in step S110. Hereinafter, the information input on the episode setting screen 1401 and stored in the server device 4 will also be referred to as "episode registered information." The episode-registered information is stored in an episode registration response text table, which will be described later.

上記の例では、例えば、「学生時代のことのキーワード」が「項目」に相当し、キーワード1403としてとして入力された「バレーボール」が「ユーザ属性情報」に相当することとしてもよい。 In the above example, for example, "keywords related to student days" may correspond to "items," and "volleyball" input as the keyword 1403 may correspond to "user attribute information."

ユーザ属性情報がどのような項目に該当しているかは、補助者から閲覧可能であってもよく、補助者から閲覧不可能であってもよい。例えば、補助者がユーザ属性情報を入力する際にはカテゴリ1402の入力欄は表示されず、キーワード1403と具体的なエピソード1404の入力欄が表示されることとしてもよい。この場合であっても、入力された具体的なエピソード1404の内容から、入力されたキーワード1403がどのような項目に該当するユーザ属性情報なのかが特定され、項目と応答文が関連付けて記憶されることとしてもよい。 The assistant may or may not be able to view what item the user attribute information corresponds to. For example, when the assistant inputs user attribute information, the input field for the category 1402 may not be displayed, but the input fields for the keyword 1403 and specific episode 1404 may be displayed. Even in this case, the user attribute information to which the input keyword 1403 corresponds is identified from the content of the input specific episode 1404, and the item and response sentence are associated and stored. It may also be a thing.

エピソード登録されるユーザ属性情報には、嗜好、習慣、経験、家族、友人、知人などに関する情報が含まれていてもよい。例えば、エピソード登録されるユーザ属性情報には、学生時代のこと、仕事をしていたときのこと、頑張ったときのこと、旅行に行ったときのこと、昔のこと、家族のこと、趣味のこと、好きな食べ物のこと、好きな歌のこと、得意なことなどの情報が含まれていてもよい。 The user attribute information registered in the episode may include information regarding preferences, habits, experiences, family, friends, acquaintances, and the like. For example, user attribute information that is registered as an episode includes things about your school days, things you did at work, things you worked hard at, things you went on a trip, things from the past, things about your family, and things about your hobbies. It may also include information such as things you like, your favorite food, your favorite song, and what you are good at.

また、エピソード登録されるユーザ属性情報は、ユーザのSNSに関する情報を基に、自動的に特定され、項目と関連付けて記憶されてもよい。例えば、基本情報設定画面1201において、ユーザのSNSのアカウントに関する情報を入力すると、SNSのアカウントにおいて登録されているプロフィールに関する情報、SNS上で公開されている投稿内容に関する情報、SNS上で紐づいている他のユーザに関する情報の中から、ユーザ属性情報が抽出されることとしてもよい。 Further, the user attribute information to be registered as an episode may be automatically specified based on information regarding the user's SNS, and may be stored in association with the item. For example, when information about the user's SNS account is entered on the basic information setting screen 1201, information about the profile registered in the SNS account, information about posted content published on the SNS, information linked on the SNS, etc. User attribute information may be extracted from information regarding other users present.

具体的には、例えば、ユーザのSNS上で公開されている投稿において、ユーザのエピソードに関する情報が記載されている場合、ユーザのエピソードに関する情報の中から、キーワード1403や具体的なエピソード1404が抽出されることとしてもよい。ユーザのエピソードに関する情報が記載されているか否かは、例えば、ユーザのSNS上で公開されている投稿において、所定の文字列が記載されているか否かにより判定されてもよい。例えば、ユーザのSNS上で公開されている投稿の中に、「旅行に行ってきました」という文字列が含まれていた場合には、該投稿の中から、旅行に行った場所、日付、同伴者などの情報が抽出されることとしてもよい。 Specifically, for example, if information about the user's episodes is described in a post published on the user's SNS, keywords 1403 and specific episodes 1404 are extracted from the information about the user's episodes. It may also be done. Whether or not information regarding a user's episode is written may be determined, for example, by whether a predetermined character string is written in a post published on the user's SNS. For example, if a post published on a user's SNS contains the string "I went on a trip," the post will include the location, date, and location of the trip. Information such as companions may also be extracted.

また、対話システムは、ユーザのSNSに関する情報を基に応答文を作成してもよい。応答文は、所定の応答文のテンプレートの中に、ユーザのSNSに関する情報の中から抽出された情報が挿入されることで作成されてもよく、応答文のテンプレートはない状態で、ユーザのSNSに関する情報から作成されてもよい。 Further, the dialogue system may create a response sentence based on information regarding the user's SNS. The response sentence may be created by inserting information extracted from information related to the user's SNS into a predetermined response sentence template, or by inserting information extracted from the user's SNS information into a predetermined response sentence template. It may be created from information about.

このように、対話システムが、ユーザのSNSに関する情報を基に応答文を作成する応答文作成手段を備え、応答文記憶手段が、作成された応答文を記憶するものであることで、補助者が把握していない内容や、ユーザ本人が忘れている内容に関しても、対話システムを通して話題にあげることができる。 In this way, the dialogue system is provided with a response sentence creation means for creating a response sentence based on information regarding the user's SNS, and the response sentence storage means is configured to store the created response sentence, so that the assistant Through the dialogue system, users can bring up topics that they are not aware of or have forgotten.

また、ここでは、具体的なエピソード1404として、応答文の一部が入力される例を示したが、具体的なエピソード1404として、応答文の一部とはならないエピソードが入力されることとしてもよい。例えば、上記の例では、具体的なエピソード1404として、「学生のときにバレーボールが得意で、大会で優勝したことがある。」という情報が入力されてもよい。また、具体的なエピソード1404として入力された情報に含まれる単語が、自動的にその項目のキーワードとして登録される態様とすることもできる。 In addition, here, an example is shown in which a part of the response sentence is input as the specific episode 1404, but an episode that is not part of the response sentence may also be input as the specific episode 1404. good. For example, in the above example, information such as "When I was a student, I was good at volleyball and once won a tournament" may be input as the specific episode 1404. Further, it is also possible to adopt a mode in which a word included in information input as a specific episode 1404 is automatically registered as a keyword for that item.

次に、ユーザにリマインドすべき情報を登録するための、リマインド登録について説明する。 Next, reminder registration for registering information to be reminded to the user will be explained.

図示しないが、対話システム利用サイトのトップページの左側の欄に表示されたリマインド設定アイコン1500が押下されると、トップページの右側の欄に、ユーザにリマインドすべき情報を登録するためのリマインド設定画面が表示される。リマインド設定画面においては、起床時刻、食事の時刻、服薬の時刻、入浴の時刻、就寝時刻などの、ユーザの日常的な活動が行われる時刻をリマインドするための設定登録が可能である。例えば、リマインド設定画面において、リマインドする時刻、リマインドにおいて音声出力する内容、繰り返しリマインドする機能の使用の有無などを設定登録することができる。 Although not shown, when the reminder setting icon 1500 displayed in the left column of the top page of a site using the dialogue system is pressed, a reminder setting for registering information to be reminded to the user is displayed in the right column of the top page. The screen will be displayed. On the reminder setting screen, it is possible to register settings for reminding the user of the times at which the user performs daily activities, such as wake-up time, meal time, medication time, bath time, and bedtime. For example, on the reminder setting screen, it is possible to set and register the time of reminder, the content of audio output in the reminder, whether or not to use the function of repeatedly reminding, and the like.

リマインド登録がなされることで、対話装置1は、リマインド登録された時刻に到達したときに、リマインド登録された内容を、音声により出力することができる。 By performing the reminder registration, the dialog device 1 can output the contents registered as a reminder by voice when the time at which the reminder registration has been performed has arrived.

ユーザの日常的な活動が行われる時刻をリマインドするための設定登録が可能であることで、対話装置1によって、ユーザが規則正しい生活を送るためのサポートをすることができるようになる。 By being able to register settings to remind the user of the times at which the user's daily activities occur, the interaction device 1 can support the user to lead a regular life.

次に、ユーザの対人関係に関する情報を登録するための、「対人関係登録」について説明する。 Next, "personal relationship registration" for registering information regarding the user's interpersonal relationships will be explained.

図6は、本発明の実施の形態にかかる、対話システムの実行画面の一例を示す図である。 FIG. 6 is a diagram showing an example of an execution screen of the dialogue system according to the embodiment of the present invention.

対話システム利用サイトのトップページの左側の欄に表示された対人関係設定アイコン1600が押下されると、ステップS101において、ユーザの対人関係に関する情報について設定登録を行うための初期設定画面を表示する要求が入力されたこととなる。そして、ステップS106において、図6の右側の欄に示すような、ユーザの対人関係に関する情報について設定登録を行うための初期設定画面、すなわち、対人関係設定画面1601が表示される。 When the interpersonal relationship setting icon 1600 displayed in the left column of the top page of the dialogue system usage site is pressed, in step S101, a request is made to display an initial setting screen for registering settings for information regarding the user's interpersonal relationships. has been input. Then, in step S106, an initial setting screen, ie, an interpersonal relationship setting screen 1601, for setting and registering information regarding the user's interpersonal relationships, as shown in the right column of FIG. 6, is displayed.

図6に示すように、対人関係設定画面1601には、ユーザとの関係性を知りたい相手の名前1602、ユーザとの関係性を知りたい相手のニックネーム1603、及び、ユーザとの関係性を知りたい相手の生年月日1604を入力するための欄が表示される。ステップS107において、補助者は、対人関係設定画面1601に表示された項目について、ユーザとの関係性を知りたい相手についての情報を入力することができる。 As shown in FIG. 6, the interpersonal relationship setting screen 1601 includes the name 1602 of the person whose relationship you want to know, the nickname 1603 of the person you want to know the relationship with the user, and the name 1603 of the person you want to know the relationship with the user. A column for entering the date of birth 1604 of the desired person is displayed. In step S107, the assistant can input information about the person whose relationship with the user he or she wants to know about the items displayed on the interpersonal relationship setting screen 1601.

「ユーザとの関係性を知りたい相手」とは、ユーザ以外の人物であればよく、特に限定されない。例えば、「ユーザとの関係性を知りたい相手」は、ユーザの友人や知人であってもよい。ここでは、「ユーザとの関係性を知りたい相手」はユーザの友人であることとする。 "The person whose relationship with the user you want to know" may be any person other than the user, and is not particularly limited. For example, "the person whose relationship with the user you want to know" may be a friend or acquaintance of the user. Here, it is assumed that "the person whose relationship with the user you want to know" is a friend of the user.

ユーザとの関係性を知りたい相手についての情報は、該相手の属性情報であるが、同時に、ユーザにとっては、ユーザの友人についての情報でもあるため、ユーザの属性情報とも言える。 Information about a person whose relationship with the user is desired is attribute information of the person, but at the same time, for the user, it is also information about the user's friends, so it can also be said to be attribute information of the user.

図6においては、相手の名前1602として「商標 次郎」、相手のニックネーム1603として「じろうくん」、及び、相手の生年月日1604として「1930年2月2日」という情報が入力されている。 In FIG. 6, information such as "Jiro Trademark" as the other party's name 1602, "Jiro-kun" as the other party's nickname 1603, and "February 2, 1930" as the other party's date of birth 1604 is input.

ユーザ属性情報(友人の属性情報)が入力された状態で、対人関係設定画面1601の右上に表示された保存ボタン1605が押下されると、ステップS108において、入力されたユーザ属性情報(友人の属性情報)がサーバ装置4へ送信されることとなる。そして、入力されたユーザ属性情報(友人の属性情報)は、ステップS110において、入力された欄の項目と関連付けて、サーバ装置4に記憶される。以下、対人関係設定画面1601において入力され、サーバ装置4に記憶された情報を、「対人関係登録された情報」ともいう。 When the save button 1605 displayed at the upper right of the interpersonal relationship setting screen 1601 is pressed while the user attribute information (friend's attribute information) is input, in step S108, the input user attribute information (friend's attribute information) is information) will be transmitted to the server device 4. The input user attribute information (friend attribute information) is stored in the server device 4 in step S110 in association with the item in the input column. Hereinafter, the information input on the interpersonal relationship setting screen 1601 and stored in the server device 4 will also be referred to as "interpersonal relationship registered information."

上記の例では、例えば、「相手の名前」が「項目」に相当し、「商標 次郎」が「ユーザ属性情報」に相当することとしてもよい。 In the above example, for example, "partner's name" may correspond to "item" and "Trademark Jiro" may correspond to "user attribute information."

上記においては、対人関係登録されるユーザ属性情報(友人の属性情報)は、友人の名前、ニックネーム、及び、生年月日であることとしたが、他のユーザ属性情報(友人の属性情報)が対人関係登録されてもよい。例えば、対人関係登録されるユーザ属性情報(友人の属性情報)には、友人の年齢、性別、血液型、星座、所持品、居住地、出身地、嗜好、習慣、経験、SNS、家族、友人、知人などに関する情報が含まれていてもよい。 In the above, the user attribute information (friend's attribute information) that is registered as an interpersonal relationship is the friend's name, nickname, and date of birth, but other user attribute information (friend's attribute information) Interpersonal relationships may be registered. For example, user attribute information (friend attribute information) that is registered for interpersonal relationships includes the friend's age, gender, blood type, zodiac sign, belongings, place of residence, place of birth, preferences, habits, experiences, SNS, family, and friends. , information about acquaintances, etc. may be included.

対人関係登録されるユーザ属性情報は、ユーザのSNSに関する情報を基に、自動的に特定され、項目と関連付けて記憶されてもよい。例えば、基本情報設定画面1201において、ユーザのSNSのアカウントに関する情報を入力すると、SNS上で紐づいている他のユーザに関する情報の中から、該他のユーザのユーザ属性情報が抽出されることとしてもよい。他のユーザに関する情報には、例えば、他のユーザのSNSのアカウントにおいて登録されているプロフィールに関する情報、他のユーザのSNS上で公開されている投稿内容に関する情報などが含まれる。 The user attribute information to be registered as an interpersonal relationship may be automatically specified based on information regarding the user's SNS, and may be stored in association with the item. For example, when information about a user's SNS account is entered on the basic information setting screen 1201, the user attribute information of the other user is extracted from the information about other users linked on the SNS. Good too. The information related to other users includes, for example, information related to profiles registered in other users' SNS accounts, information related to posted contents published on other users' SNS, and the like.

また、本発明の対話システムは、対人関係登録されたユーザ属性情報(友人の属性情報)を基に、該友人のタイプを診断することができる。本発明の対話システムは、例えば、友人の生年月日を基に該友人のタイプを診断してもよく、友人の血液型を基に該友人のタイプを診断してもよく、友人の星座を基に該友人のタイプを診断してもよい。診断された友人のタイプは、前述の、個人情報画面に表示されることとしてもよい。 Furthermore, the dialogue system of the present invention can diagnose the type of friend based on user attribute information (friend attribute information) registered in interpersonal relationships. The dialogue system of the present invention may, for example, diagnose the friend's type based on the friend's date of birth, may diagnose the friend's type based on the friend's blood type, and may diagnose the friend's zodiac sign. Based on this, the type of the friend may be diagnosed. The type of friend who has been diagnosed may be displayed on the personal information screen described above.

さらに、本発明の対話システムは、ユーザの属性情報と、ユーザとの関係性を知りたい相手の属性情報(友人の属性情報)とを基に、ユーザと該友人との関係性を診断することができる。本発明の対話システムは、診断されたユーザのタイプと診断された友人のタイプとを基に、ユーザと該友人との関係性を診断することとしてもよく、診断されたユーザのタイプと診断された友人のタイプとは関係なく、ユーザと該友人の関係性を診断することとしてもよい。診断されたユーザと該友人との関係性は、前述の、個人情報画面に表示されることとしてもよい。 Furthermore, the dialog system of the present invention diagnoses the relationship between the user and the friend based on the user's attribute information and the attribute information of the person whose relationship with the user the user wants to know (friend's attribute information). Can be done. The dialog system of the present invention may diagnose the relationship between the user and the friend based on the type of the diagnosed user and the type of the diagnosed friend. The relationship between the user and the friend may be diagnosed regardless of the type of friend the user has. The relationship between the diagnosed user and the friend may be displayed on the aforementioned personal information screen.

上記のような初期設定処理によって、補助者は、ユーザ属性情報を対話システムに登録することができる。また、初期設定処理によって登録されたユーザ属性情報は、上述の、個人情報画面において、随時、内容を閲覧、及び/又は編集することができる。 Through the initial setting process as described above, the assistant can register user attribute information in the dialog system. Further, the user attribute information registered through the initial setting process can be viewed and/or edited at any time on the personal information screen described above.

このように、対話システムが、ユーザ属性情報を入力するユーザ属性情報入力手段を備え、ユーザ属性記憶手段が、入力されたユーザ属性情報を記憶するものであることで、それぞれのユーザに固有の情報に基づいた対話が容易となる。 In this way, the dialogue system includes the user attribute information input means for inputting user attribute information, and the user attribute storage means stores the input user attribute information, so that information specific to each user can be stored. It becomes easier to have a dialogue based on

また、このように、ユーザ属性情報が、ユーザの名前、生年月日、年齢、性別、血液型、星座、所持品、居住地、出身地、嗜好、習慣、経験、SNS、家族、友人、及び/又は知人に関する情報を含むものであることで、ユーザに固有のさまざまな話題について、適切な対話を行うことができる。 In addition, in this way, user attribute information includes the user's name, date of birth, age, gender, blood type, zodiac sign, belongings, place of residence, place of birth, preferences, habits, experiences, SNS, family, friends, and By including information about acquaintances, it is possible to have appropriate conversations about various topics specific to the user.

なお、補助者は、対話システム利用サイトのトップページの左側の欄の下部に表示されたログアウトボタン1002を押下することで、随時、対話システム利用サイトからログアウトすることができる。 Note that the assistant can log out from the dialogue system usage site at any time by pressing the logout button 1002 displayed at the bottom of the left column of the top page of the dialogue system usage site.

対話システムにおける初期設定が終了した後、ユーザが対話装置1に備えられた電源ボタンを押下し、電源をオンにすることで、ユーザと対話装置1との対話が可能となる。なお、対話装置1は、電源がオンの間は対話が可能であることとしてもよく、電源がオンとなっており、かつ、所定のウェイクワードが入力されることで対話が可能となることとしてもよい。ユーザと対話装置1との対話は、以下のような対話処理によって行われる。 After the initial settings in the dialog system are completed, the user presses the power button provided on the dialog device 1 to turn on the power, thereby enabling the user to interact with the dialog device 1. Note that the dialogue device 1 may be capable of dialogue while the power is on, or may be capable of dialogue when the power is on and a predetermined wake word is input. Good too. The interaction between the user and the interaction device 1 is performed through the following interaction process.

[対話処理]
図7は、本発明の実施の形態にかかる、対話システムにおける対話処理のフローチャートを表す図である。
[Interaction processing]
FIG. 7 is a diagram showing a flowchart of dialogue processing in the dialogue system according to the embodiment of the present invention.

まず、対話装置1において、ユーザの発話が録音される(ステップS201)。録音されたユーザの発話の音声データ、すなわち録音データは、対話装置1からサーバ装置4へ送信される(ステップS202)。送信された録音データは、サーバ装置4において受信される(ステップS203)。そして、サーバ装置4において、受信された録音データがテキスト化される(ステップS204)。 First, in the dialogue device 1, a user's utterance is recorded (step S201). The recorded audio data of the user's utterance, that is, the recorded data, is transmitted from the dialog device 1 to the server device 4 (step S202). The transmitted recorded data is received by the server device 4 (step S203). Then, the received recorded data is converted into text in the server device 4 (step S204).

ステップS201においては、対話装置1が備えるマイクから入力されたユーザの発話の音声が、対話装置1が備えるストレージ部に、音声データとして記憶される。 In step S201, the voice of the user's utterance input from the microphone included in the dialog device 1 is stored as audio data in the storage unit included in the dialog device 1.

ステップS204における録音データのテキスト化には、公知の技術を利用することができる。また、上記においては、録音データがサーバ装置4へ送信され、サーバ装置4において録音データがテキスト化される態様を記載したが、対話装置1において音声データがテキスト化され、テキストデータがサーバ装置4へ送信される態様としてもよい。 A known technique can be used to convert the recorded data into text in step S204. Further, in the above description, the recorded data is transmitted to the server device 4, and the recorded data is converted into text in the server device 4. However, the voice data is converted into text in the dialogue device 1, and the text data is The information may also be sent to.

ステップS204において録音データがテキスト化された後に、サーバ装置4において、後述する、応答選択処理が行われる(ステップS205)。応答選択処理において選択された応答に関する応答情報は、サーバ装置4から対話装置1へ送信される(ステップS206)。送信された応答情報は、対話装置1において受信される(ステップS207)。そして、対話装置1において、応答情報に対応する応答の音声出力、及び/又は、応答情報に対応する応答の動作出力が行われ(ステップS208)、対話処理は終了する。 After the recorded data is converted into text in step S204, a response selection process, which will be described later, is performed in the server device 4 (step S205). Response information regarding the response selected in the response selection process is transmitted from the server device 4 to the interaction device 1 (step S206). The transmitted response information is received by the interaction device 1 (step S207). Then, in the dialogue device 1, a voice output of a response corresponding to the response information and/or an operation output of a response corresponding to the response information are performed (step S208), and the dialogue process ends.

ステップS206における応答情報には、応答文に関する情報や、モーション応答に関する情報が含まれる。応答文については、詳細は後述する。 The response information in step S206 includes information regarding the response sentence and information regarding the motion response. Details of the response text will be described later.

モーション応答とは、対話装置1が動作を行うことにより行われる応答のことをいう。モーション応答には、例えば、対話装置1がうなずいたり、首を傾げたり、腕をあげたり、顔を赤らめたりする動作により応答することが含まれる。モーション応答が行われる際には、動作と併せて、音声による応答が行われてもよい。例えば、対話装置1は、上記のような動作と併せて、「うん、うん」、「へー」、「ふーん」などの、相槌や感嘆詞にあたる音声を出力してもよい。 The motion response refers to a response made by the interaction device 1 performing an action. The motion response includes, for example, the interaction device 1 responding by nodding, tilting its head, raising an arm, or blushing. When a motion response is performed, a voice response may be performed in addition to the motion. For example, in addition to the above-described actions, the dialogue device 1 may output sounds that correspond to comments or exclamations, such as "Yeah, yeah," "Huh," and "Hmm."

ステップS206において応答文に関する情報が対話装置1へ送信された場合には、ステップS208において、応答文に対応する、応答の音声が出力される。一方、ステップS206においてモーション応答に関する情報が対話装置1へ送信された場合には、ステップS208において、モーション応答に対応する、応答の動作が出力される。 If information regarding the response sentence is transmitted to the dialogue device 1 in step S206, a response voice corresponding to the response sentence is output in step S208. On the other hand, if information regarding the motion response is transmitted to the dialogue device 1 in step S206, a response action corresponding to the motion response is output in step S208.

また、ステップS206において、応答文に関する情報とモーション応答に関する情報とが併せて対話装置1へ送信された場合には、応答文に対応する応答の音声の出力とモーション応答に対応する応答の動作の出力とが同時に行われてもよい。 Further, in step S206, if the information regarding the response sentence and the information regarding the motion response are both transmitted to the dialogue device 1, the output of the response voice corresponding to the response sentence and the response action corresponding to the motion response are output. The output may be performed simultaneously.

[応答選択処理]
図8は、本発明の実施の形態にかかる、対話システムにおける応答選択処理のフローチャートを表す図である。
[Response selection process]
FIG. 8 is a diagram showing a flowchart of response selection processing in the dialogue system according to the embodiment of the present invention.

対話処理のステップS204においてテキスト化された録音データのテキストの中から、トリガーワードが抽出される(ステップS301)。 A trigger word is extracted from the text of the recorded data converted into text in step S204 of the dialogue process (step S301).

ステップS301におけるトリガーワードの抽出においては、形態素解析、構文解析、文脈解析、意味解析、文字コードの解析などの、公知の技術を利用することができる。例えば、テキストが単語に区切られ、その中からトリガーワードが抽出されることとしてもよい。 In extracting the trigger word in step S301, known techniques such as morphological analysis, syntactic analysis, context analysis, semantic analysis, and character code analysis can be used. For example, the text may be divided into words, from which the trigger word may be extracted.

トリガーワードとして抽出されるものは、特に限定されず、単語でも、熟語でも、文節でも、文でもよい。また、所定の品詞の単語がトリガーワードとして抽出されることとしてもよい。例えば、テキストの中に含まれる名詞が、トリガーワードとして抽出されることとしてもよい。 What is extracted as a trigger word is not particularly limited, and may be a word, a phrase, a phrase, or a sentence. Alternatively, a word with a predetermined part of speech may be extracted as a trigger word. For example, a noun included in the text may be extracted as a trigger word.

抽出されたトリガーワードは、サーバ装置4に記憶されたユーザ属性情報の中から検索される(ステップS302)。ユーザ属性情報の中にトリガーワードが存在する場合(ステップS303にてYes)、トリガーワードに合致したユーザ属性情報が該当する項目に対応する発話文と、録音データのテキストが合致するか否かが判定される(ステップS304)。トリガーワードと合致したユーザ属性情報が該当する項目に対応する発話文と、録音データのテキストが合致すると判定された場合(ステップS304にてYes)、該発話文に対応する応答文が選択される(ステップS305)。 The extracted trigger word is searched from the user attribute information stored in the server device 4 (step S302). If the trigger word exists in the user attribute information (Yes in step S303), it is determined whether the text of the recorded data matches the utterance corresponding to the item to which the user attribute information that matches the trigger word corresponds. It is determined (step S304). If it is determined that the text of the recorded data matches the utterance corresponding to the item whose user attribute information that matches the trigger word corresponds (Yes in step S304), the response sentence corresponding to the utterance is selected. (Step S305).

一方、ステップS303においてユーザ属性情報の中にトリガーワードが存在しない場合(ステップS303にてNo)、ステップステップS304は行われず、サーバ装置4に基本対話として記憶された発話文と、録音データのテキストが合致するか否かが判定される(ステップS306)。基本対話として記憶された発話文と、録音データのテキストが合致すると判定された場合(ステップS306にてYes)、該発話文に対応する応答文が選択される(ステップS305)。 On the other hand, if the trigger word does not exist in the user attribute information in step S303 (No in step S303), step S304 is not performed, and the uttered sentence stored as the basic dialogue in the server device 4 and the text of the recorded data It is determined whether or not they match (step S306). If it is determined that the utterance stored as the basic dialogue matches the text of the recorded data (Yes in step S306), a response sentence corresponding to the utterance is selected (step S305).

また、ステップS304において、トリガーワードと合致したユーザ属性情報が該当する項目に対応する発話文と、録音データのテキストが合致すると判定されなかった場合にも(ステップS304にてNo)、サーバ装置4に基本対話として記憶された発話文と、録音データのテキストが合致するか否かが判定される(ステップS306)。 Furthermore, even if it is determined in step S304 that the text of the recorded data does not match the utterance corresponding to the item in which the user attribute information that matches the trigger word corresponds (No in step S304), the server device 4 It is determined whether the utterance stored as the basic dialogue matches the text of the recorded data (step S306).

ステップS306において、基本対話として記憶された発話文と、録音データのテキストが合致すると判定されなかった場合(ステップS306にてNo)、モーション応答が選択される(ステップS307)。 If it is determined in step S306 that the utterance stored as the basic dialogue does not match the text of the recorded data (No in step S306), a motion response is selected (step S307).

ステップS302~ステップS307は、ステップS305において発話文に対応する応答文が選択されるまで、又は、ステップS301において抽出された全てのトリガーワードについて検索するまで、繰り返し行われる。そして、ステップS302~ステップS307における繰り返し処理が終了すると、応答選択処理は終了する。 Steps S302 to S307 are repeated until a response sentence corresponding to the uttered sentence is selected in step S305, or until all the extracted trigger words are searched in step S301. Then, when the iterative processing in steps S302 to S307 ends, the response selection processing ends.

同一のトリガーワードが、複数の項目においてユーザ属性情報として記憶されていた場合、ステップS302において検索されるユーザ属性情報は、ランダムに決定されてもよく、予め定められた優先順位にしたがって決定されてもよい。例えば、固有名詞登録されたユーザ属性情報の優先順位が最も高く、エピソード登録されたユーザ属性情報の優先順位が次に高く、対人関係登録されたユーザ属性情報の優先順位がその次に高く、基本情報登録されたユーザ属性情報の優先順位が最も低いこととしてもよい。 If the same trigger word is stored as user attribute information in multiple items, the user attribute information searched in step S302 may be determined randomly or according to a predetermined priority order. Good too. For example, user attribute information registered with proper nouns has the highest priority, user attribute information registered with episodes has the next highest priority, user attribute information with interpersonal relationships has the next highest priority, and basic The registered user attribute information may have the lowest priority.

この場合、例えば、「りんご」というトリガーワードが、「好きな果物」という項目に固有名詞登録され、かつ、「ユーザのニックネーム」という項目に基本情報登録されていたときには、固有名詞登録されたユーザ属性情報の中から優先的に検索が行われ、「りんご」というトリガーワードは、「好きな果物」という項目に属していると判定される。 In this case, for example, if the trigger word "apple" is registered as a proper noun in the field "favorite fruit" and basic information is registered in the field "user nickname", the user who registered the proper noun A search is performed preferentially from among the attribute information, and the trigger word "apple" is determined to belong to the item "favorite fruit."

ステップS303においてユーザ属性情報の中にトリガーワードが存在するか否かの判定の態様は特に限定されず、適宜設計可能である。例えば、記憶されたユーザ属性情報とトリガーワードが完全に一致している場合に存在すると判定されてもよく、記憶されたユーザ属性情報とトリガーワードの合致度が測定され、合致度が所定の値以上である場合に存在すると判定されてもよい。つまり、トリガーワードとユーザ属性情報が関連していると考えられる場合には、ユーザ属性情報の中にトリガーワードが存在すると判定されることとしてもよい。 The manner of determining whether or not a trigger word exists in the user attribute information in step S303 is not particularly limited, and can be designed as appropriate. For example, it may be determined that the stored user attribute information and the trigger word exist when they completely match, and the degree of matching between the stored user attribute information and the trigger word is measured, and the matching degree is set to a predetermined value. If the above is the case, it may be determined that it exists. That is, if it is thought that the trigger word and user attribute information are related, it may be determined that the trigger word exists in the user attribute information.

また、ステップS304、及びステップS306において、発話文とユーザの発話のテキストが合致するか否かの判定の態様は特に限定されず、適宜設計可能である。例えば、発話文とユーザの発話のテキストが完全に一致している場合に合致すると判定されてもよく、発話文とユーザの発話のテキストの合致度が測定され、合致度が所定の値以上である場合に合致すると判定されてもよい。 In addition, in steps S304 and S306, the manner of determining whether or not the uttered sentence matches the text of the user's utterance is not particularly limited, and can be designed as appropriate. For example, a match may be determined when the text of the utterance and the text of the user's utterance completely match, and the degree of matching between the utterance and the text of the user's utterance is measured, and if the degree of match is greater than or equal to a predetermined value, the match may be determined. It may be determined that they match in certain cases.

なお、ユーザ属性情報とトリガーワードの合致度や、発話文とユーザの発話のテキストの合致度の測定には、公知の技術を利用することができる。例えば、レーベンシュタイン距離法、ジャロ・ウィンクラー距離法などを利用してもよい。 Note that known techniques can be used to measure the degree of match between user attribute information and a trigger word, and the degree of match between an utterance and a user's utterance text. For example, the Levenshtein distance method, Jaro-Winkler distance method, etc. may be used.

ステップS305において発話文に対応する応答文が選択された場合にも、ステップS206において、選択された応答文に関する情報と、応答文と関連付けて記憶されたモーション応答に関する情報とが併せて対話装置1に送信されることとしてもよい。あるいは、ステップS305において発話文に対応する応答文が選択された場合、ステップS206において、ランダムで、選択された応答文に関する情報と、モーション応答に関する情報とが併せて対話装置1に送信されることとしてもよい。 Even when a response sentence corresponding to the uttered sentence is selected in step S305, in step S206, the information regarding the selected response sentence and the information regarding the motion response stored in association with the response sentence are combined with the dialogue device 1. It may also be sent to Alternatively, if a response sentence corresponding to the uttered sentence is selected in step S305, information regarding the selected response sentence and information regarding the motion response may be randomly transmitted together to the dialogue device 1 in step S206. You can also use it as

ステップS305において選択される応答文には、トリガーワードと合致したユーザ属性情報が該当する項目に関連付けて記憶された発話文に対応する応答文と、基本対話として記憶された発話文に対応する応答文とが含まれ得る。ステップS302~ステップS307における繰り返し処理の終了条件は、いずれかの応答文が選択されるまでであっても、トリガーワードと合致したユーザ属性情報が該当する項目に関連付けて記憶された発話文に対応する応答文が選択されるまでであっても、基本対話として記憶された発話文に対応する応答文が選択されるまでであってもよい。 The response sentences selected in step S305 include a response sentence corresponding to an utterance in which user attribute information that matches the trigger word is stored in association with a corresponding item, and a response corresponding to an utterance stored as a basic dialogue. It can include sentences. The end condition for the iterative process in steps S302 to S307 corresponds to an uttered sentence in which the user attribute information that matches the trigger word is stored in association with the corresponding item, even before any response sentence is selected. It may be until the response sentence corresponding to the utterance sentence stored as the basic dialogue is selected.

ステップS301において抽出されたトリガーワードが複数ある場合には、抽出された全てのトリガーワードについて検索するまで、ステップS302~ステップS307が繰り返し行われてもよい。そして、ステップS305において選択された応答文、及び/又はステップS307において選択された応答の中のいずれかが、前述のステップS206において、応答情報として対話装置1へ送信されることとしてもよい。 If there are multiple trigger words extracted in step S301, steps S302 to S307 may be repeated until all the extracted trigger words are searched. Then, either the response sentence selected in step S305 and/or the response selected in step S307 may be transmitted to the dialogue device 1 as response information in the aforementioned step S206.

この場合、予め定められた優先順位にしたがって、応答情報として送信される応答文、又はモーション応答が決定されることとしてもよい。例えば、トリガーワードと合致したユーザ属性情報が該当する項目に関連付けて記憶された発話文に対応する応答文の優先順位が最も高く、基本対話として記憶された発話文に対応する応答文の優先順位が次に高く、モーション応答の優先順位が最も低いこととしてもよい。 In this case, a response sentence or a motion response to be transmitted as response information may be determined according to a predetermined priority order. For example, the priority of a response sentence corresponding to an utterance stored in association with an item with user attribute information that matches the trigger word is highest, and the priority of a response sentence corresponding to a utterance stored as a basic dialogue is highest. may have the second highest priority, and the motion response may have the lowest priority.

また、この場合、トリガーワードと合致したユーザ属性情報が該当する項目に関連付けて記憶された発話文に対応する応答文の中にも、優先順位が定められていてもよい。例えば、固有名詞登録されたユーザ属性情報が該当する項目に関連付けて記憶された発話文に対応する応答文の優先順位が最も高く、エピソード登録されたユーザ属性情報が該当する項目に関連付けて記憶された発話文に対応する応答文の優先順位が次に高く、対人関係登録されたユーザ属性情報が該当する項目に関連付けて記憶された発話文に対応する応答文の優先順位がその次に高く、基本情報登録されたユーザ属性情報が該当する項目に関連付けて記憶された発話文に対応する応答文の優先順位が最も低いこととしてもよい。 Furthermore, in this case, a priority order may also be determined among the response sentences corresponding to the utterances that are stored in association with the item in which the user attribute information that matches the trigger word corresponds. For example, a response sentence corresponding to an utterance that is stored in association with an item in which user attribute information registered as a proper noun is associated has the highest priority, and user attribute information in which an episode is registered is stored in association with an item in which it is associated. The priority of the response sentence corresponding to the uttered sentence is the next highest, and the priority of the response sentence corresponding to the uttered sentence stored in association with the item in which the user attribute information registered for interpersonal relationship corresponds is the next highest, The response sentence corresponding to the uttered sentence stored in association with the item to which the basic information registered user attribute information corresponds may have the lowest priority.

あるいは、ステップS206において、応答情報として2以上の応答文、及び/又はモーション応答が、対話装置1へ送信されることとしてもよい。その場合、送信された応答情報に対応する複数の応答が、対話装置1において出力されてもよい。 Alternatively, in step S206, two or more response sentences and/or motion responses may be transmitted to the interaction device 1 as response information. In that case, a plurality of responses corresponding to the transmitted response information may be output by the interaction device 1.

上記の、ステップS301~ステップS306における応答文の選択にかかる処理について、図9~13を参照しながら説明する。 The processing related to selecting a response sentence in steps S301 to S306 will be described with reference to FIGS. 9 to 13.

前述のように、ステップS305において選択される応答文には、ユーザ属性情報に関連する応答文と、ユーザ属性情報に関連しない応答文とが含まれ得る。そして、ユーザ属性情報に関連する応答文には、基本情報登録されたユーザ属性情報に関連する応答文、固有名詞登録されたユーザ属性情報に関連する応答文、エピソード登録されたユーザ属性情報に関連する応答文、及び、対人関係登録されたユーザ属性情報に関連する応答文が含まれ得る。 As described above, the response sentences selected in step S305 may include response sentences related to user attribute information and response sentences not related to user attribute information. Response sentences related to user attribute information include response sentences related to user attribute information registered in basic information, response sentences related to user attribute information registered as proper nouns, and response sentences related to user attribute information registered in episodes. and response sentences related to user attribute information registered for interpersonal relationships.

以下、固有名詞登録されたユーザ属性情報に関連する応答文の選択にかかる処理、エピソード登録されたユーザ属性情報に関連する応答文の選択にかかる処理、対人関係登録されたユーザ属性情報に関連する応答文の選択にかかる処理、基本情報登録されたユーザ属性情報に関連する応答文の選択にかかる処理、ユーザ属性情報に関連しない、基本対話に関連する応答文の選択にかかる処理の順に説明する。 Below, the process related to selecting a response sentence related to user attribute information registered as a proper noun, the process related to selecting a response sentence related to user attribute information registered in an episode, and the process related to user attribute information registered in interpersonal relationships. Processes related to selecting response sentences, processes related to selecting response sentences related to user attribute information registered in basic information, and processes related to selecting response sentences related to basic dialogue that are not related to user attribute information will be explained in this order. .

図9は、本発明の実施の形態にかかる、固有名詞登録データテーブルを表す図である。 FIG. 9 is a diagram showing a proper noun registration data table according to the embodiment of the present invention.

固有名詞登録データテーブル10には、固有名詞設定画面1301において入力された、ユーザの固有名詞の大カテゴリ11、ユーザの固有名詞の中カテゴリ12、ユーザの固有名詞13、及び、ユーザの固有名詞の発音バリエーション14が、それぞれ関連付けて記憶されている。 The proper noun registration data table 10 includes the user's large category 11 of proper nouns, the user's medium category 12 of proper nouns, the user's proper nouns 13, and the user's proper nouns entered on the proper noun setting screen 1301. The pronunciation variations 14 are stored in association with each other.

図9においては、例えば、「食べ物」という大カテゴリ11に、「好きな果物」と「苦手な果物」という2つの中カテゴリ12が属している。そして、「好きな果物」として、「りんご」というユーザの固有名詞13が、「苦手な果物」として、「バナナ」というユーザの固有名詞13が、それぞれ記憶されている。つまり、ここでは、「好きな果物」という項目と、「りんご」というユーザ属性情報が関連付けて記憶され、「苦手な果物」という項目と、「バナナ」というユーザ属性情報が関連付けて記憶されている。 In FIG. 9, for example, two medium categories 12, ``favorite fruit'' and ``dislike fruit'', belong to a large category 11 ``food''. The user's proper noun 13 ``apple'' is stored as a ``favorite fruit,'' and the user's proper noun 13 ``banana'' is stored as a ``dislike fruit.'' In other words, here, the item "favorite fruit" and the user attribute information "apple" are stored in association with each other, and the item "fruits I dislike" and the user attribute information "banana" are stored in association with each other. .

図10は、本発明の実施の形態にかかる、固有名詞登録応答文マスタテーブルを表す図である。 FIG. 10 is a diagram showing a proper noun registration response sentence master table according to the embodiment of the present invention.

固有名詞登録応答文マスタテーブル20には、ユーザの固有名詞の中カテゴリ21、発話文22、及び応答文23が、それぞれ関連付けて記憶されている。 In the proper noun registration response sentence master table 20, a medium category 21 of a user's proper noun, an uttered sentence 22, and a response sentence 23 are stored in association with each other.

図10においては、例えば、「好きな果物」という中カテゴリ21と、「{{好きな果物}}/買う/たよ」、「{{好きな果物}}/買う/て/くる/たよ」、及び「{{好きな果物}}/食べる/たよ」という3つの発話文22とが関連付けて記憶されている。 In FIG. 10, for example, there is a medium category 21 called "favorite fruit", "{{favorite fruit}}/buy/tayo", "{{favorite fruit}}/buy/te/come/tayo", and three utterances 22 such as "{{favorite fruit}}/eat/tayo" are stored in association with each other.

発話文としては、ユーザが発話すると想定される文が記憶される。 As the uttered sentence, a sentence that is assumed to be uttered by the user is stored.

発話文は、図10に示すように、単語に区切った形で記憶されていてもよい。また、図10に示すように、発話文に含まれる動詞は終止形の形で記憶されていてもよい。この場合、動詞の語尾を動詞の後に続く付属語に合わせて活用した文と、動詞が終止形の形で記憶された発話文とは、文に含まれる単語の意味と順序が同一である場合には、同一の文として判定されることとしてもよい。以下、発話文の形式については同様とする。 The utterance may be stored in words, as shown in FIG. Furthermore, as shown in FIG. 10, the verbs included in the uttered sentence may be stored in the final form. In this case, the meaning and order of the words contained in the sentence are the same in the sentence in which the ending of the verb is conjugated to match the adjunct following the verb and in the uttered sentence in which the verb is memorized in the final form. may be determined as the same sentence. Hereinafter, the format of the utterances will be the same.

また、発話文は、ユーザが発話すると想定される文の中の、全ての単語により構成されていてもよく、一部の単語により構成されていてもよい。例えば、発話文は、ユーザが発話すると想定される文の中の、名詞、形容詞、動詞などの、文の意味を解析するにあたり重要度の高い単語により構成されていてもよい。つまり、発話文は、ユーザが発話すると想定される文の中の、自立語により構成されていてもよい。この場合、発話のテキストに含まれる単語の意味と順序が、発話文に含まれる単語の意味と順序と同一である場合には、合致すると判定されることとしてもよい。 Further, the uttered sentence may be composed of all the words in the sentence that is assumed to be uttered by the user, or may be composed of some words. For example, the uttered sentence may be composed of words of high importance in analyzing the meaning of the sentence, such as nouns, adjectives, and verbs, in a sentence that is assumed to be uttered by the user. That is, the uttered sentence may be composed of independent words in a sentence that is assumed to be uttered by the user. In this case, if the meaning and order of the words included in the text of the utterance are the same as the meaning and order of the words included in the utterance, it may be determined that they match.

また、図10においては、「{{好きな果物}}/買う/たよ」、及び「{{好きな果物}}/買う/て/くる/たよ」という2つの発話文22と、「{{好きな果物}}は、{{ユーザの名前}}さんの好きな果物ですよね。食べたら、また教えてくださいね。」、及び「{{好きな果物}}は、{{ユーザの名前}}さんの好きな果物ですよね。{{好きな果物}}、美味しそうで、いいですね。」という2つの応答文23とが関連付けて記憶されている。さらに、図10においては、「{{好きな果物}}/食べる/たよ」という発話文22と、「{{好きな果物}}を食べたんですね。美味しかったですか?」、及び「{{好きな果物}}を食べたんですね。{{好きな果物}}、いいなー。」という2つの応答文23とが関連付けて記憶されている。 In addition, in FIG. 10, there are two utterances 22, "{{favorite fruit}}/buy/tayo" and "{{favorite fruit}}/buy/te/kuru/tayo", and "{{favorite fruit}}/buy/tayo", and "{{favorite fruit}}/buy/tayo". "Your favorite fruit} is {{User's name}}'s favorite fruit. Please let me know after you try it." and "{{Your favorite fruit}} is {{User's name}." }'s favorite fruit, isn't it? {{Favorite fruit}}, it looks delicious and nice.'' are stored in association with each other. Furthermore, in FIG. 10, there are utterances 22 such as "{{favorite fruit}}/eat/I want to eat", "I saw that you ate {{favorite fruit}}. Was it delicious?", and "{ Two response sentences 23 such as "You ate {your favorite fruit}}. {{your favorite fruit}} is nice." are stored in association with each other.

なお、発話文、及び応答文の中の、二重の中括弧で括られた部分には、ユーザ属性情報として記憶された情報が入ることとする。例えば、ここでは、「好きな果物」として、「りんご」というユーザ属性情報が記憶されているため、{{好きな果物}}の欄は「りんご」に差し替えられた状態で識別される。つまり、二重の中括弧で括られた部分に示された内容が「項目」に相当し、二重の中括弧で括られた部分に挿入される内容が「ユーザ属性情報」に相当する。以下、二重の中括弧で括られた部分については同様とする。 It is assumed that information stored as user attribute information is placed in the portions enclosed in double curly braces in the uttered sentence and the response sentence. For example, here, since the user attribute information "apple" is stored as "favorite fruit," the column {{favorite fruit}} is identified with "apple" replaced. In other words, the content shown in the part enclosed in double curly braces corresponds to an "item", and the content inserted in the part enclosed in double curly braces corresponds to "user attribute information". The same applies to the parts enclosed in double curly braces below.

ここでは、「好きな果物」という項目に対応して、発話文が3つ、及び、応答文が4つ記憶されていることとしたが、1の項目に対応して記憶される発話文、及び応答文の個数は特に限定されず、適宜設計可能である。1の項目に対応して記憶される応答文が複数ある場合には、ステップS305において、記憶された複数の応答文のいずれか1以上が選択されることとしてもよい。この場合、応答文はランダムに選ばれてもよく、所定の規則にしたがって選択されてもよい。例えば、前回選択された応答文とは異なる応答文が選択されることとしてもよい。 Here, it is assumed that three utterances and four response sentences are stored corresponding to the item "favorite fruit," but the utterances stored corresponding to item 1, and the number of response sentences are not particularly limited and can be designed as appropriate. If there are a plurality of response sentences stored corresponding to one item, one or more of the plurality of stored response sentences may be selected in step S305. In this case, the response sentences may be selected at random or according to a predetermined rule. For example, a response sentence different from the previously selected response sentence may be selected.

また、応答文は、1つの発話文に対して1つ記憶されていてもよく、1つの発話文に対して2つ以上が記憶されていてもよい。1つの発話文に対して2つ以上の応答文が記憶されている場合には、選択される応答文はランダムに選ばれてもよく、所定の規則にしたがって選択されてもよい。例えば、前回選択された応答文とは異なる応答文が選択されることとしてもよい。 Furthermore, one response sentence may be stored for one utterance, or two or more response sentences may be stored for one utterance. When two or more response sentences are stored for one uttered sentence, the selected response sentences may be selected at random or according to a predetermined rule. For example, a response sentence different from the previously selected response sentence may be selected.

ユーザが「りんご買ったよ」と発話し、発話した通りにテキスト化された場合、ステップS301においては、例えば、「りんご」という単語がトリガーワードとして抽出される。この場合、ステップS302において、抽出された「りんご」というトリガーワードが、サーバ装置4に記憶されているユーザ属性情報の中から検索される。 When the user utters "I bought an apple" and the utterance is converted into text, for example, the word "apple" is extracted as a trigger word in step S301. In this case, in step S302, the extracted trigger word "apple" is searched from among the user attribute information stored in the server device 4.

ここでは、固有名詞登録されたユーザ属性情報として「りんご」が記憶されているため、ステップS303において、ユーザ属性情報の中にトリガーワード「りんご」が存在することとなる。 Here, since "apple" is stored as user attribute information registered as a proper noun, the trigger word "apple" is present in the user attribute information in step S303.

トリガーワードと合致したユーザ属性情報「りんご」は、「好きな果物」という項目に該当している。そのため、ステップS304において、「好きな果物」という項目に対応する発話文と、ユーザの発話のテキストが合致するか否かが判定される。 The user attribute information “apple” that matches the trigger word corresponds to the item “favorite fruit”. Therefore, in step S304, it is determined whether the utterance corresponding to the item "favorite fruit" matches the text of the user's utterance.

ここでは、「好きな果物」という項目に対応する発話文として、「{{好きな果物}}/買う/たよ、た」という発話文22が記憶されているため、該発話文とユーザの発話のテキストは合致すると判定される。 Here, since the utterance 22 "{{favorite fruit}}/buy/tayo, ta" is stored as the utterance corresponding to the item "favorite fruit," this utterance and the user's utterance The text is determined to match.

ここでは、「{{好きな果物}}/買う/たよ」という発話文22に対応する応答文23として、「{{好きな果物}}は、{{ユーザの名前}}さんの好きな果物ですよね。食べたら、また教えてくださいね。」、及び「{{好きな果物}}は、{{ユーザの名前}}さんの好きな果物ですよね。{{好きな果物}}、美味しそうで、いいですね。」という2つの応答文23が記憶されているため、ステップS305において、該2つの応答文のうち、いずれか1以上が応答文として選択される。 Here, as a response sentence 23 corresponding to the utterance sentence 22 "{{favorite fruit}}/buy/I want to buy it", "{{favorite fruit}} is {{user's name}}'s favorite fruit." That's right. Please let me know when you eat it." and "{{Favorite fruit}} is {{User's name}}'s favorite fruit. {{Favorite fruit}} looks delicious. Since two response sentences 23 such as "So, that's good." are stored, one or more of the two response sentences is selected as the response sentence in step S305.

ステップS305において、「{{好きな果物}}は、{{ユーザの名前}}さんの好きな果物ですよね。食べたら、また教えてくださいね。」という応答文23が選択された場合には、ステップS208において、対話装置1から、「りんごは、特許花子さんの好きな果物ですよね。食べたら、また教えてくださいね。」という応答の音声が出力される。 In step S305, if the response sentence 23 "{{favorite fruit}} is {{user's name}}'s favorite fruit, isn't it? Please let me know again after you eat it." , In step S208, the dialogue device 1 outputs a voice response saying, "Apples are Hanako Patent's favorite fruit. Please tell me again after you eat them."

上記においては、「りんご」というユーザ属性情報が「好きな果物」という項目に記憶されている例について説明したが、もし、「りんご」というユーザ属性情報が「苦手な果物」という項目に記憶されていた場合には、「りんご買ったよ」というユーザの発話に対して、ステップS208において、上記とは異なる応答が出力されることとなる。 In the above example, the user attribute information "apple" is stored in the item "favorite fruit", but if the user attribute information "apple" is stored in the item "fruits I don't like", If so, in response to the user's utterance "I bought an apple," a response different from the above will be output in step S208.

例えば、図10では、「苦手な果物」という項目において、「{{苦手な果物}}/買う/たよ」という発話文22に対応して、「{{苦手な果物}}は、{{ユーザの名前}}さんの苦手な果物ですよね。苦手なのに、どうして買ったんですか?」という応答文23が記憶されている。そのため、もし、「りんご」というユーザ属性情報が「苦手な果物」という項目に記憶されていた場合には、「りんご買ったよ」というユーザの発話に対して、「りんごは、特許花子さんの苦手な果物ですよね。苦手なのに、どうして買ったんですか?」という応答の音声が出力される。 For example, in FIG. 10, in the item "Fruits I don't like," in response to the utterance sentence 22 "{{Fruits I don't like}}/I bought it," "{{Fruits I don't like}} is Response sentence 23 is memorized: "It's a fruit that you don't like. Even though you don't like it, why did you buy it?" Therefore, if the user attribute information ``apple'' is stored in the item ``fruits I don't like,'' in response to the user's utterance ``I bought an apple,'' the message ``Apples are a fruit that Patent Hanako doesn't like.'' It's a delicious fruit, isn't it? You don't like it, so why did you buy it?'' is output.

このように、対話システムが予めユーザに固有の名詞に関するユーザ属性情報を項目ごとに記憶し、ユーザの発話中に含まれる単語がどの項目に対応する単語であるかによって応答の方向性を変更することで、ユーザにとって適切なコミュニケーションが可能となる。 In this way, the dialogue system stores in advance user attribute information regarding nouns specific to the user for each item, and changes the direction of the response depending on which item the word included in the user's utterance corresponds to. This enables appropriate communication for users.

また、このように、応答文記憶手段が、1の項目に対応する応答文を複数記憶するものであり、応答文選択手段が、記憶された複数の応答文のいずれか1以上を選択するものであることで、応答のバリエーションが増え、対話システムによる対話の趣向性が向上する。 Further, in this way, the response sentence storage means stores a plurality of response sentences corresponding to one item, and the response sentence selection means selects one or more of the plurality of stored response sentences. This increases the variety of responses and improves the interest of dialogue by the dialogue system.

図11は、本発明の実施の形態にかかる、エピソード登録応答文テーブルを表す図である。 FIG. 11 is a diagram showing an episode registration response sentence table according to the embodiment of the present invention.

エピソード登録応答文テーブル20には、ユーザに固有のエピソードが属する項目のカテゴリ31、ユーザに固有のエピソードのキーワード32、発話文33、及び応答文34が、それぞれ関連付けて記憶されている。 In the episode registration response sentence table 20, categories 31 of items to which user-specific episodes belong, keywords 32 of user-specific episodes, utterances 33, and response sentences 34 are stored in association with each other.

図11においては、例えば、「学生時代のこと」というカテゴリ31と、「バレーボール」、「学生時代」、「昔」という3つのキーワード32とが関連付けて記憶されている。キーワード32としては、前述の、エピソード設定画面1401において入力されたユーザに固有のエピソードのキーワード1403以外にも、所定の単語が記憶されることとしてもよい。例えば、ユーザに固有のエピソードが属する項目のカテゴリや、「昔」などの、エピソード登録された情報に関連する単語がキーワード32として記憶されていてもよい。 In FIG. 11, for example, a category 31 of "student days" and three keywords 32 of "volleyball," "student days," and "old days" are stored in association with each other. As the keyword 32, in addition to the above-mentioned user-specific episode keyword 1403 input on the episode setting screen 1401, a predetermined word may be stored. For example, the keyword 32 may be a category of an item to which a user-specific episode belongs, or a word related to information registered in the episode, such as "old days."

また、図11においては、「バレーボール」というキーワード32と、「{{学生時代のことのキーワード}}/の/話/聞く/て」という発話文33とが関連付けて記憶され、「学生時代」というキーワード32と、「学生時代/の/話/聞く/て」という発話文33とが関連付けて記憶され、「昔」というキーワード32と、「昔/の/話/聞く/て」という発話文33とが関連付けて記憶されている。さらに、図11においては、「{{学生時代のことのキーワード}}/の/話/聞く/て」、「学生時代/の/話/聞く/て」、及び「昔/の/話/聞く/て」という3つの発話文33と、「わぁ、{{ユーザの名前}}さんとお話できるの、うれしいです。えっと、{{ユーザの名前}}さんの学生時代のことのお話が聞きたいです。はなこさんは、学生のときにバレーボールが得意で、大会で優勝されたことがあるのですよね。その時に印象的だったことを聞かせてください。」という応答文34とが関連付けて記憶されている。 In addition, in FIG. 11, the keyword 32 "volleyball" and the uttered sentence 33 "{{keywords about student days}}/talk/listen/te" are stored in association with each other, and the keyword 32 is stored in association with "student days". The keyword 32 and the uttered sentence 33 ``student days/of/talk/listen/te'' are stored in association with each other, and the keyword 32 of ``old days'' and the uttered sentence ``old days/of/talk/listen/te'' are stored in association with each other. 33 are stored in association with each other. Furthermore, in Figure 11, "{{Keywords about my school days}} /'s/stories/listen/te," "student days/'s/stories/listen/te," and "long ago/'s/stories/listen." /te'' and three utterances 33, and ``Wow, I'm glad to be able to talk with {{User's name}}.Well, I'd like to hear {{User's name}} talk about his school days. Yes.Hanako-san was good at volleyball when she was a student, and she even won a tournament.Please tell me something that impressed you at that time.''Response 34 is associated with memory. has been done.

ユーザが「バレーボールの話聞いて」と発話し、発話した通りにテキスト化された場合、ステップS301においては、例えば、「バレーボール」と「話」という単語がトリガーワードとして抽出される。この場合、ステップS302において、抽出された「バレーボール」、又は「話」というトリガーワードが、サーバ装置4に記憶されているユーザ属性情報の中から検索される。 When the user utters "Listen to the story about volleyball" and the utterance is converted into text, in step S301, for example, the words "volleyball" and "story" are extracted as trigger words. In this case, in step S302, the extracted trigger word "volleyball" or "story" is searched from the user attribute information stored in the server device 4.

ここでは、エピソード登録されたユーザ属性情報として「バレーボール」が記憶されているため、ステップS303において、ユーザ属性情報の中にトリガーワード「バレーボール」が存在することとなる。 Here, since "volleyball" is stored as the episode-registered user attribute information, the trigger word "volleyball" is present in the user attribute information in step S303.

トリガーワードと合致したユーザ属性情報「バレーボール」は、「学生時代のことのキーワード」という項目に該当している。そのため、ステップS304において、「学生時代のことのキーワード」という項目に対応する発話文と、ユーザの発話のテキストが合致するか否かが判定される。 The user attribute information "volleyball" that matches the trigger word corresponds to the item "keywords related to student days." Therefore, in step S304, it is determined whether or not the utterance corresponding to the item "Keywords related to student days" matches the text of the user's utterance.

ここでは、「学生時代のことのキーワード」という項目に対応する発話文として、「{{学生時代のことのキーワード}}/の/話/聞く/て」という発話文が記憶されているため、該発話文とユーザの発話のテキストは合致すると判定される。 Here, the utterance ``{{Keywords from student days}}/'s/talk/listen/te'' is stored as the utterance corresponding to the item ``Keywords from student days.'' It is determined that the utterance text matches the text of the user's utterance.

ここでは、「{{学生時代のことのキーワード}}/の/話/聞く/て」という発話文33に対応する応答文34として、「わぁ、{{ユーザの名前}}さんとお話できるの、うれしいです。えっと、{{ユーザの名前}}さんの学生時代のことのお話が聞きたいです。はなこさんは、学生のときにバレーボールが得意で、大会で優勝されたことがあるのですよね。その時に印象的だったことを聞かせてください。」という応答文34が記憶されているため、ステップS305において、該応答文が選択される。 Here, the response sentence 34 corresponding to the utterance sentence 33, "{{Keywords about student days}}/'s/talk/listen/te," is, "Wow, I can talk to {{user's name}}." , I'm happy. Well, I'd like to hear about {{User's name}} from her school days. Hanako was good at volleyball when she was a student and once won a tournament. Yes, please tell me what was impressive at that time.'' Since the response sentence 34 is stored, the response sentence is selected in step S305.

この場合、ステップS208において、対話装置1から、「わぁ、特許花子さんとお話できるの、うれしいです。えっと、特許花子さんの学生時代のことのお話が聞きたいです。はなこさんは、学生のときにバレーボールが得意で、大会で優勝されたことがあるのですよね。その時に印象的だったことを聞かせてください。」という応答の音声が出力される。 In this case, in step S208, the dialogue device 1 says, ``Wow, I'm glad to be able to talk to Ms. Hanako Patent.Well, I'd like to hear about Ms. Patent Hanako from her student days.Mr. Hanako is a student. You were good at volleyball and won a tournament once, right? Please tell me something that impressed you at that time.'' A response voice is output.

なお、ここでは、応答文34としてエピソード設定画面1401において入力された具体的なエピソード1404が記憶されることとしているが、応答文34として、予め定められた応答文が記憶されていてもよい。 Here, the specific episode 1404 input on the episode setting screen 1401 is stored as the response sentence 34, but a predetermined response sentence may be stored as the response sentence 34.

このように、対話システムが予めユーザに固有のエピソードに関するユーザ属性情報を項目ごとに記憶し、ユーザの発話中に含まれる単語がどの項目に対応する単語であるかによって応答の方向性を変更することで、ユーザにとって適切なコミュニケーションが可能となる。 In this way, the dialogue system stores in advance user attribute information regarding episodes unique to the user for each item, and changes the direction of the response depending on which item the word included in the user's utterance corresponds to. This enables appropriate communication for users.

図12は、本発明の実施の形態にかかる、関係性マスタテーブル及び対人関係登録応答文マスタテーブルを表す図である。 FIG. 12 is a diagram showing a relationship master table and an interpersonal relationship registration response sentence master table according to the embodiment of the present invention.

図12(a)は、本発明の実施の形態にかかる、関係性マスタテーブルを表す図である。関係性マスタテーブル40には、ユーザのタイプ41と、相手のタイプ42とに関連付けて、ユーザと該相手との関係性43が記憶されている。 FIG. 12(a) is a diagram showing a relationship master table according to an embodiment of the present invention. The relationship master table 40 stores a relationship 43 between a user and a partner in association with a user type 41 and a partner type 42.

図12(a)においては、ユーザ、及び相手のタイプとして、ビジョンタイプ、ピースタイプ、ロジカルタイプの3つのタイプが表示されている。そして、ユーザのタイプと、相手のタイプとに基づいて、ユーザと相手との関係性が特定、つまり診断される。関係性を診断する際のユーザのタイプは、対話システムに記憶されたユーザ属性情報を基に診断されたものであってよい。また、関係性を診断する際の相手のタイプは、対話システムに記憶された、ユーザとの関係性を知りたい相手の属性情報を基に診断されたものであってよい。 In FIG. 12A, three types are displayed as the user and other party types: vision type, piece type, and logical type. Then, the relationship between the user and the other party is identified, that is, diagnosed, based on the user's type and the other party's type. The user type when diagnosing the relationship may be diagnosed based on user attribute information stored in the dialog system. Further, the type of the other party when diagnosing the relationship may be diagnosed based on the attribute information of the other party whose relationship with the user is desired, which is stored in the dialogue system.

例えば、図12(a)において、ユーザのタイプがビジョンタイプであり、相手のタイプもビジョンタイプである場合、ユーザと相手との関係性は「VV」となる。 For example, in FIG. 12A, if the user type is the vision type and the other party's type is also the vision type, the relationship between the user and the other party is "VV".

図12(b)は、本発明の実施の形態にかかる、対人関係登録応答文マスタテーブルを表す図である。対人関係登録応答文マスタテーブル50には、項目51、発話文52、関係性53、及び応答文54が、それぞれ関連付けて記憶されている。また、応答文54としては、関係性53ごとに異なる内容の応答文が記憶されている。 FIG. 12(b) is a diagram representing the interpersonal relationship registration response sentence master table according to the embodiment of the present invention. In the interpersonal relationship registration response sentence master table 50, items 51, utterances 52, relationships 53, and response sentences 54 are stored in association with each other. Further, as the response sentences 54, response sentences having different contents for each relationship 53 are stored.

例えば、図12(b)においては、「相手のニックネーム」という項目51に対して、「{{相手のニックネーム}}/との/かかわり方/教える/て」という発話文52が記憶されている。そして、該発話文52に対して、「VV」という関係性53に対応する応答文54として、「{{ユーザの名前}}さんと{{相手のニックネーム}}は似ているところがありそうですね。いつも通りの{{ユーザの名前}}さんらしく、自然にふるまうのがいいと思います。」という応答文が記憶されている。 For example, in FIG. 12(b), for the item 51 "Nickname of the other party", the utterance 52 "Teach/how to interact/with {{Nickname of the other party}}/" is stored. . In response to the uttered sentence 52, the response sentence 54 corresponding to the relationship 53 of "VV" is "{{user's name}}" and {{other party's nickname}}. "I think it's best for you to act naturally, like {{User's name}} as usual." is remembered.

また、該発話文52に対して、「VP」という関係性53に対応する応答文54としては、「{{相手のニックネーム}}はやさしい人なのでしょうか。{{相手のニックネーム}}が安心できるように、やさしく声をかけるのがいいんじゃないかと思います。」という応答文が記憶されている。 Furthermore, in response to the utterance 52, the response sentence 54 corresponding to the relationship 53 of "VP" is, "Is {{other person's nickname}} a kind person? {{other person's nickname}} makes me feel safe. I think it would be a good idea to speak to them kindly so that they can do the same.'' I remember the response.

さらに、該発話文52に対して、「VL」という関係性53に対応する応答文54としては、「{{相手のニックネーム}}はロジカルなところがありそうですね。最初に何の話をしたいのか伝えてから、詳しいことを説明するといいかもしれません。」という応答文が記憶されている。 Furthermore, in response to the uttered sentence 52, the response sentence 54 corresponding to the relationship 53 "VL" is, "{{Nickname of the other party}} seems logical. First, tell them what you want to talk about. It might be a good idea to explain the details later.'' was the response that was memorized.

ユーザが「じろうくんとのかかわり方教えて」と発話し、発話した通りにテキスト化された場合、ステップS301においては、例えば、「じろうくん」と「かかわり方」という単語がトリガーワードとして抽出される。この場合、ステップS302において、抽出された「じろうくん」、又は「かかわり方」というトリガーワードが、サーバ装置4に記憶されているユーザ属性情報の中から検索される。 When the user utters "Tell me how to interact with Jiro-kun" and the utterance is converted into text, in step S301, for example, the words "Jiro-kun" and "How to interact" are extracted as trigger words. Ru. In this case, in step S302, the extracted trigger word "Jiro-kun" or "How to get involved" is searched from the user attribute information stored in the server device 4.

ここでは、対人関係登録されたユーザ属性情報である、ユーザとの関係性を知りたい相手の属性情報として「じろうくん」が記憶されているため、ステップS303において、ユーザ属性情報の中にトリガーワード「じろうくん」が存在することとなる。 Here, since "Jiro-kun" is stored as the attribute information of the person with whom the user wants to know the relationship, which is the user attribute information registered in the interpersonal relationship, the trigger word is included in the user attribute information in step S303. ``Jiro-kun'' comes into existence.

トリガーワードと合致したユーザ属性情報「じろうくん」は、「相手のニックネーム」という項目に該当している。そのため、ステップS304において、「相手のニックネーム」という項目に対応する発話文と、ユーザの発話のテキストが合致するか否かが判定される。 The user attribute information "Jiro-kun" that matches the trigger word corresponds to the item "other party's nickname". Therefore, in step S304, it is determined whether the utterance corresponding to the item "other party's nickname" matches the text of the user's utterance.

ここでは、「相手のニックネーム」という項目に対応する発話文として、「{{相手のニックネーム}}/との/かかわり方/教える/て」という発話文が記憶されているため、該発話文とユーザの発話のテキストは合致すると判定される。 Here, as the utterance corresponding to the item ``Nickname of the other person'', the utterance ``Teach/how to interact with/with {{Nickname of the other person}}'' is stored, so this utterance and The text of the user's utterance is determined to match.

ここでは、「{{相手のニックネーム}}/との/かかわり方/教える/て」という発話文52に対応する応答文54として、関係性53ごとに異なる応答文が記憶されているため、関係性マスタテーブルを参照した、ユーザと相手との関係性53に対応する応答文54が選択される。ユーザと相手との関係性53が「VV」である場合、ステップS305において、「VV」という関係性53に対応する応答文54である、「{{ユーザの名前}}さんと{{相手のニックネーム}}は似ているところがありそうですね。いつも通りの{{ユーザの名前}}さんらしく、自然にふるまうのがいいと思います。」という応答文が選択される。 Here, a different response sentence is stored for each relationship 53 as the response sentence 54 corresponding to the utterance sentence 52 "How to interact with/teach/with {{other person's nickname}}". A response sentence 54 corresponding to the relationship 53 between the user and the other party is selected with reference to the gender master table. If the relationship 53 between the user and the other party is "VV", in step S305, the response sentence 54 corresponding to the relationship 53 "VV" is "{{user's name}} and {{other party's name}". The response sentence "Nickname}} seems to be similar in some respects. I think it would be best if you act naturally, like {{user's name}} as usual."

この場合、ステップS208において、対話装置1から、「特許花子さんとじろうくんは似ているところがありそうですね。いつも通りの特許花子さんらしく、自然にふるまうのがいいと思います。」という応答の音声が出力される。 In this case, in step S208, the dialogue device 1 gives a voice response saying, "It seems that Hanako Patent and Jiro-kun are similar in some respects. I think it would be best for Hanako Patent to act naturally, as usual." is output.

このように、対話システムが、ユーザの属性情報と、ユーザ以外の人物の属性情報とを基に、ユーザと該人物との関係性を診断する関係性診断手段を備え、応答文記憶手段が、関係性ごとの応答文を記憶するものであり、応答文選択手段が、診断されたユーザと該人物との関係性に対応する応答文のいずれか1以上を選択するものであることで、ユーザは、対話システムを利用して、気軽に対人関係の悩みを相談することができる。 In this way, the dialogue system includes a relationship diagnosis means for diagnosing the relationship between the user and the person based on the user's attribute information and the attribute information of the person other than the user, and the response sentence storage means The response sentence for each relationship is stored, and the response sentence selection means selects one or more of the response sentences corresponding to the relationship between the diagnosed user and the person. By using the dialogue system, you can feel free to discuss your interpersonal problems.

また、図示しないが、サーバ装置4には、基本情報登録されたユーザ属性情報を含む発話文と、該ユーザ属性情報が該当する項目に対応する応答文とが関連付けて記憶された、基本情報登録応答文マスタテーブルが記憶されていてもよい。 Although not shown, the server device 4 also stores basic information registration in which utterances including user attribute information registered as basic information and response sentences corresponding to items to which the user attribute information corresponds are stored in association with each other. A response sentence master table may be stored.

そして、ステップS302において、基本情報登録されたユーザ属性情報中にトリガーワードが存在するかが検索され、ステップS304において、該ユーザ属性情報を含む発話文と、ユーザの発話のテキストが合致する場合には、ステップS305において、該ユーザ属性情報が該当する項目に対応する応答文のいずれか1以上が選択されることとしてもよい。 Then, in step S302, a search is made to see if a trigger word exists in the user attribute information registered in the basic information, and in step S304, if the utterance including the user attribute information matches the text of the user's utterance, In step S305, one or more of the response sentences corresponding to the item to which the user attribute information corresponds may be selected.

このように、本発明の対話システムは、ユーザの発話の入力を受け付ける発話入力手段と、ユーザ属性情報を項目ごとに記憶するユーザ属性記憶手段と、ユーザの発話に対する応答文を項目と関連付けて記憶する応答文記憶手段と、発話に含まれる単語に関連するユーザ属性情報が該当する項目に対応する応答文のいずれか1以上を選択する応答文選択手段と、選択された応答文に対応する応答の音声を出力する応答出力手段とを備えることで、文字列としては同じユーザの発話に対しても、発話に含まれる単語がユーザにとってどのような意味を有する単語なのかによって、異なる応答を行うことができる。そのため、ユーザに適した対話が可能となり、ユーザは対話システムによる対話に、より魅力を感じることができる。 As described above, the dialogue system of the present invention includes a speech input means that receives user's speech input, a user attribute storage means that stores user attribute information for each item, and a response sentence to the user's speech that is stored in association with the item. a response sentence storage means for selecting one or more response sentences corresponding to an item to which user attribute information related to a word included in the utterance corresponds; and a response sentence corresponding to the selected response sentence. response output means for outputting a voice, even if the character string is the same as the user's utterances, different responses are made depending on what meaning the words included in the utterances have to the user. be able to. Therefore, it becomes possible to have a dialogue that is suitable for the user, and the user can find the dialogue by the dialogue system more appealing.

なお、応答文としては、応答文に対応する項目に関連の強い内容であることが好ましい。つまり、応答文は、どの項目に属していても当たり障りのない内容ではなく、その項目に属しているからこそ、その応答となるような内容であることが好ましい。 Note that it is preferable that the response text has content that is strongly related to the item corresponding to the response text. In other words, it is preferable that the response sentence is not a neutral content no matter which item it belongs to, but a content that becomes a response precisely because it belongs to that item.

また、ユーザとの対話においては、ユーザの発話中にユーザ属性情報に関連する単語が含まれないこともある。あるいは、ユーザの発話中にユーザ属性情報に関連する単語が含まれてはいるが、ユーザ属性情報に関連する発話文として記憶されていない発話を行うこともある。そのような場合にもユーザとの対話を適切に行うため、本発明の対話システムは、基本的な対話としてあり得る発話文、及び応答文を記憶している。 Furthermore, in a conversation with a user, words related to user attribute information may not be included in the user's utterances. Alternatively, the user may make an utterance that includes a word related to the user attribute information but is not stored as an uttered sentence related to the user attribute information. In order to appropriately interact with the user even in such a case, the dialog system of the present invention stores utterances and response sentences that can be used as basic dialogs.

図13は、本発明の実施の形態にかかる、基本対話マスタテーブルを表す図である。 FIG. 13 is a diagram representing a basic dialogue master table according to an embodiment of the present invention.

基本対話マスタテーブル60には、発話文61と関連付けて、応答文62が記憶されている。 In the basic dialogue master table 60, response sentences 62 are stored in association with uttered sentences 61.

例えば、図13においては、「おばあちゃん/て/呼ぶ/で」という発話文61と関連付けて、「おばあちゃーん。」という応答文62が記憶されている。 For example, in FIG. 13, the response sentence 62 "Grandma." is stored in association with the uttered sentence 61 "Grandma."

ユーザが「おばあちゃんって呼んで」と発話し、発話した通りにテキスト化された場合、ステップS301においては、例えば、「おばあちゃん」という単語がトリガーワードとして抽出される。この場合、ステップS302において、抽出された「おばあちゃん」というトリガーワードが、サーバ装置4に記憶されているユーザ属性情報の中から検索される。 When the user utters "Call me grandma" and the utterance is converted into text, in step S301, for example, the word "grandma" is extracted as a trigger word. In this case, in step S302, the extracted trigger word "grandma" is searched from among the user attribute information stored in the server device 4.

ここでは、ユーザ属性情報として「おばあちゃん」という単語は記憶されていないため、ステップS303において、ユーザ属性情報の中にトリガーワード「おばあちゃん」は存在しないこととなる。 Here, since the word "grandma" is not stored as user attribute information, the trigger word "grandma" does not exist in the user attribute information in step S303.

そのため、ステップS306において、基本対話マスタテーブルに記憶された発話文61と、ユーザの発話のテキストが合致するか否かが判定される。 Therefore, in step S306, it is determined whether or not the utterance 61 stored in the basic dialogue master table matches the text of the user's utterance.

ここでは、基本対話マスタテーブルに記憶された発話文61として、「おばあちゃん/て/呼ぶ/で」という発話文が記憶されているため、該発話文とユーザの発話のテキストは合致すると判定される。 Here, as the utterance 61 stored in the basic dialogue master table, the utterance ``grandma/te/call/de'' is stored, so it is determined that the utterance and the text of the user's utterance match. .

ここでは、「おばあちゃん/て/呼ぶ/で」という発話文61に対応する応答文62として、「おばあちゃーん。」という応答文が記憶されているため、ステップS305において、該応答文が選択される。 Here, the response sentence ``Grandma.'' is stored as the response sentence 62 corresponding to the uttered sentence 61 ``Grandma/te/call/de'', so this response sentence is selected in step S305. Ru.

この場合、ステップS208において、対話装置1から、「おばあちゃーん。」という応答の音声が出力される。 In this case, in step S208, the dialogue device 1 outputs a response voice saying "Grandma."

このように、ユーザの発話中にユーザ属性情報に関連する単語が含まれない場合や、ユーザの発話中にユーザ属性情報に関連する単語が含まれてはいるが、ユーザ属性情報に関連する発話文として記憶されていない発話を行った場合にも、発話に対応した応答が選択されることで、様々なユーザの発話に対して適切に応答を行うことができる。 In this way, when a word related to user attribute information is not included in a user's utterance, or when a word related to user attribute information is included in a user's utterance, the utterance is related to user attribute information. Even when the user makes an utterance that is not stored as a sentence, a response corresponding to the utterance is selected, so that it is possible to respond appropriately to the utterances of various users.

なお、ユーザの発話の中の一部の単語が認識されなかった場合には、認識されなかった単語について聞き返すような内容の応答文が選択されることとしてもよい。 Note that if some words in the user's utterance are not recognized, a response sentence may be selected that asks the user to repeat the unrecognized words.

また、上記において、ユーザ属性情報を基にユーザのタイプが診断されることについて記載したが、対話システムには、1の項目に対して、タイプごとに異なる内容の応答文が記憶されることとしてもよい。そして、ステップS305において、診断されたユーザのタイプに対応する応答文のいずれか1以上が選択されてもよい。 In addition, although it has been described above that the user type is diagnosed based on user attribute information, it is also possible that the dialogue system stores response sentences with different contents for each type for one item. Good too. Then, in step S305, one or more of the response sentences corresponding to the diagnosed user type may be selected.

例えば、「得意なこと」という項目に対応して、「ほめる」ことを目的とする応答文が記憶されていても、ユーザのタイプによって、好ましいほめ方は異なる。そのため、「ほめる」ことを目的とする応答文として、「すごいですね」、「さすがです」、「びっくりです」などの複数の表現の応答文をタイプごとに記憶し、ユーザのタイプに応じていずれか1以上の応答文を選択することとしてもよい。 For example, even if a response sentence intended to "praise" a user is stored in response to the item "something he is good at," the preferred way of praising the user will differ depending on the type of user. Therefore, as response sentences for the purpose of ``praising'', we memorize response sentences with multiple expressions such as ``That's amazing,'' ``As expected,'' and ``I'm surprised,'' for each type. It is also possible to select one or more response sentences.

このように、対話システムがユーザ属性情報を基にユーザのタイプを診断するタイプ診断手段を備え、応答文記憶手段が1の項目に対応する応答文をタイプごとに複数記憶するものであり、応答文選択手段が、診断されたユーザのタイプに対応する応答文のいずれか1以上を選択するものであることで、ユーザのタイプに応じた、適切な対話を行うことができる。 In this way, the dialogue system is provided with a type diagnosis means for diagnosing a user's type based on user attribute information, and a response sentence storage means stores a plurality of response sentences corresponding to item 1 for each type. Since the sentence selection means selects one or more response sentences corresponding to the diagnosed type of user, it is possible to conduct an appropriate dialogue according to the type of user.

また、ユーザのタイプは、対話システムの初期設定時に、補助者により入力されてもよい。この場合も、対話システムには、1の項目に対して、タイプごとに異なる内容の応答文が記憶されることとしてもよい。そして、ステップS305において、入力されたユーザのタイプに対応する応答文のいずれか1以上が選択されてもよい。 Additionally, the user type may be input by an assistant during initial setup of the dialog system. In this case as well, the dialogue system may store response sentences with different contents for each type for one item. Then, in step S305, one or more of the response sentences corresponding to the input user type may be selected.

本発明の対話システムによれば、ユーザは、「自分のことを分かってくれる」対話システムに対してより愛着を感じ、積極的に対話システムによる対話を行うことが期待される。ユーザ、特に、高齢者は、対話を行う機会が増えることで、喜びや生きがいを感じやすくなり、メンタルヘルスが向上すると考えられる。また、対話を行う機会が増えることで、認知機能や嚥下機能の低下を防ぐ効果も期待できる。 According to the dialogue system of the present invention, users are expected to feel more attached to the dialogue system that "understands them" and to actively engage in dialogue using the dialogue system. It is thought that by having more opportunities for dialogue, users, especially the elderly, will feel more joy and purpose in life, and their mental health will improve. In addition, increasing opportunities for dialogue can be expected to have the effect of preventing declines in cognitive and swallowing functions.

また、上述した、ユーザのタイプごとの応答を可能とする機能は、独立して成立するものである。 Further, the above-mentioned function that enables responses for each type of user is established independently.

つまり、本発明は、少なくとも1のコンピュータ装置を備える対話システムであって、ユーザの発話の入力を受け付ける発話入力手段と、ユーザ属性情報を記憶するユーザ属性記憶手段と、ユーザ属性情報を基にユーザのタイプを診断するタイプ診断手段と、ユーザの発話に対する応答文をタイプごとに複数記憶する応答文記憶手段と、発話に含まれる単語に対応する応答文のいずれか1以上を、診断されたユーザのタイプに応じて選択する応答文選択手段と、選択された応答文に対応する応答の音声を出力する応答出力手段とを備える、対話システムであってもよい。 In other words, the present invention provides an interaction system including at least one computer device, a speech input means for receiving input of user's speech, a user attribute storage means for storing user attribute information, and a user a type diagnosis means for diagnosing the type of a user's utterance; a response sentence storage means for storing a plurality of response sentences for each type of utterances; The dialogue system may include a response sentence selection means that selects a response sentence according to the type of the response sentence, and a response output means that outputs a voice response corresponding to the selected response sentence.

また、上述した、ユーザの発音のバリエーションを登録することで、ユーザの発音の癖に対応した応答を可能とする機能は、独立して成立するものである。 Further, the above-mentioned function of registering variations in the user's pronunciation to enable a response that corresponds to the user's pronunciation habits is independently established.

つまり、本発明は、少なくとも1のコンピュータ装置を備える対話システムであって、ユーザの発話の入力を受け付ける発話入力手段と、ユーザの発話に含まれ得る単語の発音のバリエーションを、該単語と関連付けて記憶する発音記憶手段と、記憶された発音のバリエーションがユーザの発話に含まれる場合に、該単語を発話したと特定する発話特定手段と、ユーザの発話に対する応答文を記憶する応答文記憶手段と、発話に含まれる単語に対応する応答文のいずれか1以上を選択する応答文選択手段と、選択された応答文に対応する応答の音声を出力する応答出力手段とを備える、対話システムであってもよい。 In other words, the present invention provides a dialogue system comprising at least one computer device, which includes a speech input means for receiving input of a user's speech, and a method for associating pronunciation variations of a word that may be included in the user's speech with the word. a pronunciation storage means for storing the word; an utterance identification means for identifying that the user has uttered the word when the stored pronunciation variation is included in the user's utterance; and a response sentence storage means for storing a response sentence to the user's utterance. , a dialogue system comprising a response sentence selection means for selecting one or more response sentences corresponding to a word included in an utterance, and a response output means for outputting a response voice corresponding to the selected response sentence. It's okay.

また、上述した、ユーザの対人関係に関する応答を可能とする機能は、独立して成立するものである。 Further, the above-mentioned function that enables responses regarding the user's interpersonal relationships is established independently.

つまり、本発明は、少なくとも1のコンピュータ装置を備える対話システムであって、ユーザの発話の入力を受け付ける発話入力手段と、ユーザの属性情報と、ユーザ以外の人物の属性情報とを基に、ユーザと該人物との関係性を診断する関係性診断手段と、ユーザの発話に対する応答文を関係性ごとに記憶する応答文記憶手段と、発話に含まれる単語、及び、診断されたユーザと該人物との関係性に対応する応答文のいずれか1以上を選択する応答文選択手段と、選択された応答文に対応する応答の音声を出力する応答出力手段とを備える、対話システムであってもよい。 In other words, the present invention provides an interaction system that includes at least one computer device, and includes a speech input means that receives input of the user's speech, and a speech input means that receives the user's speech input based on the user's attribute information and the attribute information of a person other than the user. relationship diagnosis means for diagnosing the relationship between the user and the person; a response sentence storage means for storing responses to the user's utterances for each relationship; words included in the utterances, and the diagnosed user and the person. Even if the dialogue system is provided with a response sentence selection means for selecting one or more of the response sentences corresponding to the relationship with the response sentence, and a response output means for outputting a response voice corresponding to the selected response sentence good.

また、上述した、ユーザのSNSに関する応答を基に応答文を作成する機能は、独立して成立するものである。 Further, the above-mentioned function of creating a response sentence based on the user's SNS response is established independently.

つまり、本発明は、少なくとも1のコンピュータ装置を備える対話システムであって、ユーザの発話の入力を受け付ける発話入力手段と、ユーザのSNSに関するユーザ属性情報を記憶するユーザ属性記憶手段と、ユーザのSNSに関する情報を基に、ユーザの発話に対する応答文を作成する応答文作成手段と、作成された応答文を記憶する応答文記憶手段と、発話に含まれる単語に関連する応答文のいずれか1以上を選択する応答文選択手段と、選択された応答文に対応する応答の音声を出力する応答出力手段とを備える、対話システムであってもよい。 In other words, the present invention provides an interaction system comprising at least one computer device, which includes: a speech input means for receiving input of a user's speech; a user attribute storage means for storing user attribute information regarding the user's SNS; response sentence creation means for creating a response sentence to the user's utterance based on information about the user's utterance; response sentence storage means for storing the created response sentence; and one or more of response sentences related to words included in the utterance. The dialogue system may include a response sentence selection means for selecting a response sentence, and a response output means for outputting a response voice corresponding to the selected response sentence.

1 対話装置
2 補助者端末
3 通信ネットワーク
4 サーバ装置
10 固有名詞登録データテーブル
11 大カテゴリ
12 中カテゴリ
13 固有名詞
14 固有名詞の発音バリエーション
20 固有名詞登録応答文マスタテーブル
21 中カテゴリ
22 発話文
23 応答文
30 エピソード登録応答文テーブル
31 カテゴリ
32 キーワード
33 発話文
34 応答文
40 関係性マスタテーブル
41 ユーザのタイプ
42 相手のタイプ
43 関係性
50 対人関係登録応答文マスタテーブル
51 発話文
52 関係性
53 応答文
60 基本対話マスタテーブル
61 発話文
62 応答文
1000 実行画面
1001 登録者の名前
1002 ログアウトボタン
1100 個人情報アイコン
1200 基本情報設定アイコン
1201 基本情報設定画面
1202 ユーザの名前
1203 ユーザのニックネーム
1204 ユーザの生年月日
1205 ロボットの名前
1206 ロボットのID
1207 保存ボタン
1300 固有名詞設定アイコン
1301 固有名詞設定画面
1302 大カテゴリ
1303 中カテゴリ
1304 ユーザの固有名詞
1305 ユーザの固有名詞の発音バリエーション
1306 保存ボタン
1400 エピソード設定アイコン
1401 エピソード設定画面
1402 カテゴリ
1403 キーワード
1404 具体的なエピソード
1405 保存ボタン
1500 リマインド設定アイコン
1600 対人関係設定アイコン
1601 対人関係設定画面
1602 相手の名前
1603 相手のニックネーム
1604 相手の生年月日
1605 保存ボタン
1 Dialogue device 2 Assistant terminal 3 Communication network 4 Server device 10 Proper noun registration data table 11 Large category 12 Medium category 13 Proper noun 14 Pronunciation variation of proper noun 20 Proper noun registration response sentence master table 21 Medium category 22 Utterance sentence 23 Response Sentence 30 Episode registration response sentence table 31 Category 32 Keyword 33 Utterance sentence 34 Response sentence 40 Relationship master table 41 User type 42 Partner type 43 Relationship 50 Interpersonal relationship registration response sentence master table 51 Utterance sentence 52 Relationship 53 Response sentence 60 Basic dialogue master table 61 Utterance sentence 62 Response sentence 1000 Execution screen 1001 Registrant's name 1002 Logout button 1100 Personal information icon 1200 Basic information setting icon 1201 Basic information setting screen 1202 User's name 1203 User's nickname 1204 User's date of birth 1205 Robot name 1206 Robot ID
1207 Save button 1300 Proper noun setting icon 1301 Proper noun setting screen 1302 Large category 1303 Medium category 1304 User's proper noun 1305 Pronunciation variation of user's proper noun 1306 Save button 1400 Episode setting icon 1401 Episode setting screen 1402 Category 1403 Keyword 1404 Specific Episode 1405 Save button 1500 Reminder setting icon 1600 Interpersonal relationship setting icon 1601 Interpersonal relationship setting screen 1602 Partner's name 1603 Partner's nickname 1604 Partner's date of birth 1605 Save button

Claims (10)

少なくとも1のコンピュータ装置を備える対話システムであって、
ユーザの発話の入力を受け付ける発話入力手段と、
ユーザ属性情報を項目ごとに記憶するユーザ属性記憶手段と、
ユーザの発話(システムから出力された質問に応答する発話を除く)に対する応答文を前記項目ごとに記憶する応答文記憶手段と、
発話に含まれる単語がユーザ属性情報として記憶されている場合に、該ユーザ属性情報が該当する、前記項目のうちのいずれかに対応して記憶されている応答文のいずれか1以上を選択する応答文選択手段と、
選択された応答文に対応する応答の音声を出力する応答出力手段と
を備え、
応答文記憶手段が、1の前記項目に対して、1以上のユーザの発話と、ユーザの発話に対応する応答文とを関連付けて記憶するものである、
対話システム。
An interaction system comprising at least one computer device, the system comprising:
an utterance input means for accepting input of a user's utterance;
a user attribute storage means for storing user attribute information item by item;
response sentence storage means for storing response sentences for each item of the user's utterances (excluding utterances in response to questions output from the system) ;
If the words included in the utterance are stored as user attribute information , select one or more of the response sentences stored corresponding to any of the items to which the user attribute information corresponds. response sentence selection means;
and a response output means for outputting a response voice corresponding to the selected response sentence,
The response sentence storage means stores one or more user's utterances and a response sentence corresponding to the user's utterances in association with one of the items,
Dialogue system.
ユーザ属性情報が、ユーザの名前、生年月日、年齢、性別、血液型、星座、所持品、居住地、出身地、嗜好、習慣、経験、SNS(ソーシャル・ネットワーキング・サービス)、家族、友人、及び/又は知人に関する情報を含むものである、
請求項1に記載の対話システム。
User attribute information includes the user's name, date of birth, age, gender, blood type, zodiac sign, belongings, place of residence, place of birth, preferences, habits, experiences, SNS (social networking service), family, friends, and/or contains information about acquaintances;
The dialogue system according to claim 1.
対話システムが、
ユーザ属性情報の入力を受け付けるユーザ属性情報入力手段
を備え、
ユーザ属性記憶手段が、入力されたユーザ属性情報を記憶するものであり、
ユーザ属性情報入力手段及びユーザ属性記憶手段が、発話入力手段による発話の入力を受け付けるよりも前に、実行されるものである、
請求項1又は2に記載の対話システム。
The dialogue system
comprising a user attribute information input means for accepting input of user attribute information;
The user attribute storage means stores input user attribute information,
The user attribute information input means and the user attribute storage means are executed before receiving the speech input by the speech input means,
The dialogue system according to claim 1 or 2.
応答文記憶手段が、1の前記項目に対応する応答文を複数記憶するものであり、
応答文選択手段が、記憶された複数の応答文のいずれか1以上を選択するものである、
請求項1又は2に記載の対話システム。
The response sentence storage means stores a plurality of response sentences corresponding to one of the items,
the response sentence selection means selects one or more of the plurality of stored response sentences;
The dialogue system according to claim 1 or 2.
対話システムが、
ユーザ属性情報を基にユーザのタイプを診断するタイプ診断手段
を備え、
応答文記憶手段が、1の前記項目に対応する応答文をタイプごとに複数記憶するものであり、
応答文選択手段が、診断されたユーザのタイプに対応する応答文のいずれか1以上を選択するものである、
請求項1又は2に記載の対話システム。
The dialogue system
Equipped with a type diagnosis means for diagnosing the user type based on user attribute information,
The response sentence storage means stores a plurality of response sentences corresponding to one of the items for each type,
the response sentence selection means selects one or more response sentences corresponding to the type of the diagnosed user;
The dialogue system according to claim 1 or 2.
対話システムが、
ユーザの発話に含まれ得る単語の発音のバリエーションの入力を受け付ける発音入力手段と、
入力された単語の発音のバリエーションを、該単語と関連付けて記憶する発音記憶手段と、
記憶された発音のバリエーションがユーザの発話に含まれる場合に、該単語を発話したと特定する発話特定手段と
を備える、
請求項1又は2に記載の対話システム。
The dialogue system
pronunciation input means that accepts input of pronunciation variations of words that may be included in the user's utterance;
pronunciation storage means for storing pronunciation variations of the input word in association with the word;
utterance identifying means for identifying that the user has uttered the word when the stored pronunciation variation is included in the user's utterance;
The dialogue system according to claim 1 or 2.
タイプ診断手段が、ユーザ以外の人物の属性情報を基に該人物のタイプを診断するものであり、
対話システムが、
ユーザのタイプと、ユーザ以外の人物のタイプとを基に、ユーザと該人物との関係性を診断する関係性診断手段
を備え、
応答文記憶手段が、関係性ごとの応答文を記憶するものであり、
応答文選択手段が、診断されたユーザと該人物との関係性に対応する応答文のいずれか1以上を選択するものである、
請求項5に記載の対話システム。
The type diagnosis means diagnoses the type of a person other than the user based on the attribute information of the person,
The dialogue system
Comprising a relationship diagnosis means for diagnosing the relationship between the user and the person based on the type of the user and the type of the person other than the user,
The response sentence storage means stores response sentences for each relationship,
the response sentence selection means selects one or more response sentences corresponding to the relationship between the diagnosed user and the person;
The dialogue system according to claim 5.
対話システムが、
ユーザのSNSに関する情報を基に応答文を作成する応答文作成手段
を備え、
応答文記憶手段が、作成された応答文を記憶するものである、
請求項2に記載の対話システム。
The dialogue system
comprising a response sentence creation means for creating a response sentence based on information regarding the user's SNS,
the response sentence storage means stores the created response sentence;
The dialogue system according to claim 2.
少なくとも1のコンピュータ装置を備える対話システムにおいて実行される対話方法であって、
ユーザの発話の入力を受け付ける発話入力ステップと、
ユーザ属性情報を項目ごとに記憶するユーザ属性記憶ステップと、
ユーザの発話(システムから出力された質問に応答する発話を除く)に対する応答文を前記項目ごとに記憶する応答文記憶ステップと、
発話に含まれる単語がユーザ属性情報として記憶されている場合に、該ユーザ属性情報が該当する、前記項目のうちのいずれかに対応して記憶されている応答文のいずれか1以上を選択する応答文選択ステップと、
選択された応答文に対応する応答の音声を出力する応答出力ステップと
を有し、
応答文記憶ステップが、1の前記項目に対して、1以上のユーザの発話と、ユーザの発話に対応する応答文とを関連付けて記憶するものである、
対話方法。
An interaction method performed in an interaction system comprising at least one computer device, the method comprising:
an utterance input step for accepting input of a user's utterance;
a user attribute storage step for storing user attribute information item by item;
a response sentence storage step of storing a response sentence for each item of the user's utterances (excluding utterances in response to questions output from the system) ;
If the words included in the utterance are stored as user attribute information , select one or more of the response sentences stored corresponding to any of the items to which the user attribute information corresponds. a response sentence selection step;
and a response output step of outputting a response voice corresponding to the selected response sentence,
the response sentence storage step stores one or more user's utterances and a response sentence corresponding to the user's utterances in association with one of the items;
How to interact.
少なくとも1のコンピュータ装置を備える対話システムであって、
ユーザ属性情報を項目ごとに記憶するユーザ属性記憶手段と、
ユーザの発話(システムから出力された質問に応答する発話を除く)に対する応答文を前記項目ごとに記憶する応答文記憶手段と、
ユーザの発話に含まれる単語がユーザ属性情報として記憶されている場合に、該ユーザ属性情報が該当する、前記項目のうちのいずれかに対応して記憶されている応答文のいずれか1以上を選択する応答文選択手段と
を備え、
応答文記憶手段が、1の前記項目に対して、1以上のユーザの発話と、ユーザの発話に対応する応答文とを関連付けて記憶するものである、
対話システム。
An interaction system comprising at least one computer device, the system comprising:
a user attribute storage means for storing user attribute information item by item;
response sentence storage means for storing response sentences for each item of the user's utterances (excluding utterances in response to questions output from the system) ;
When a word included in the user's utterance is stored as user attribute information, one or more of the response sentences stored corresponding to any of the items to which the user attribute information corresponds is selected. a response sentence selection means for selecting;
The response sentence storage means stores one or more user's utterances and a response sentence corresponding to the user's utterances in association with one of the items,
Dialogue system.
JP2022087631A 2022-05-30 2022-05-30 Dialogue system and dialogue method Active JP7350384B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022087631A JP7350384B1 (en) 2022-05-30 2022-05-30 Dialogue system and dialogue method
JP2023078897A JP2023175637A (en) 2022-05-30 2023-05-11 Dialogue system and dialogue method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022087631A JP7350384B1 (en) 2022-05-30 2022-05-30 Dialogue system and dialogue method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023078897A Division JP2023175637A (en) 2022-05-30 2023-05-11 Dialogue system and dialogue method

Publications (2)

Publication Number Publication Date
JP7350384B1 true JP7350384B1 (en) 2023-09-26
JP2023175269A JP2023175269A (en) 2023-12-12

Family

ID=88099150

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2022087631A Active JP7350384B1 (en) 2022-05-30 2022-05-30 Dialogue system and dialogue method
JP2023078897A Pending JP2023175637A (en) 2022-05-30 2023-05-11 Dialogue system and dialogue method

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023078897A Pending JP2023175637A (en) 2022-05-30 2023-05-11 Dialogue system and dialogue method

Country Status (1)

Country Link
JP (2) JP7350384B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014222400A (en) 2013-05-13 2014-11-27 日本電信電話株式会社 Utterance sentence generation device, interactive device, utterance sentence generation method, interactive method, utterance sentence generation program, and interactive program
JP2017049471A (en) 2015-09-03 2017-03-09 カシオ計算機株式会社 Dialogue control apparatus, dialogue control method, and program
JP2017220077A (en) 2016-06-09 2017-12-14 真由美 稲場 Program for obtaining function for supporting communication by understanding personality and likings of other party
JP2018054790A (en) 2016-09-28 2018-04-05 トヨタ自動車株式会社 Voice interaction system and voice interaction method
WO2020129182A1 (en) 2018-12-19 2020-06-25 株式会社ニコン Interactive device, interactive system, and interactive program
WO2021064947A1 (en) 2019-10-03 2021-04-08 日本電信電話株式会社 Interaction method, interaction system, interaction device, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014222400A (en) 2013-05-13 2014-11-27 日本電信電話株式会社 Utterance sentence generation device, interactive device, utterance sentence generation method, interactive method, utterance sentence generation program, and interactive program
JP2017049471A (en) 2015-09-03 2017-03-09 カシオ計算機株式会社 Dialogue control apparatus, dialogue control method, and program
JP2017220077A (en) 2016-06-09 2017-12-14 真由美 稲場 Program for obtaining function for supporting communication by understanding personality and likings of other party
JP2018054790A (en) 2016-09-28 2018-04-05 トヨタ自動車株式会社 Voice interaction system and voice interaction method
WO2020129182A1 (en) 2018-12-19 2020-06-25 株式会社ニコン Interactive device, interactive system, and interactive program
WO2021064947A1 (en) 2019-10-03 2021-04-08 日本電信電話株式会社 Interaction method, interaction system, interaction device, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Ken Kohga,"世界で開発が加速化するチャットボットの進化の軌跡~元祖ELIZAの誕生から、ディープラーニングの可能性まで~",SupportTech Lab,2020年01月15日,インターネット〈URL:https://mobilus.co.jp/lab/chatbot/history-of-chatbot/〉

Also Published As

Publication number Publication date
JP2023175637A (en) 2023-12-12
JP2023175269A (en) 2023-12-12

Similar Documents

Publication Publication Date Title
CN112119454B (en) Automatic assistant adapted to multiple age groups and/or vocabulary levels
Auracher et al. P is for happiness, N is for sadness: Universals in sound iconicity to detect emotions in poetry
Francis Re/theorising gender: Female masculinity and male femininity in the classroom?
Soto et al. Exploring the elements of narrative that emerge in the interactions between an 8-year-old child who uses an AAC device and her teacher
Silva Saudade–a key Portuguese emotion
Novielli et al. User attitude towards an embodied conversational agent: Effects of the interaction mode
Turner A psychology of user experience: Involvement, affect and aesthetics
Snyder-Young “Here to Tell Her Story” Analyzing the Autoethnographic Performances of Others
JP2019091387A (en) Information processing apparatus and program
Obiorah et al. Designing AACs for people with aphasia dining in restaurants
CN111857343B (en) System capable of realizing digital immortalization and interacting with user
Nicholls Cultural scripts, social cognition and social interaction in Roper Kriol
Pederson To be welcome: A call for narrative interviewing methods in illness contexts
Alerby Places for silence and stillness in schools of today: A matter for educational policy
Ferreira Gossip as indirect mockery in friendly conversation: The social functions of ‘sharing a laugh’at third parties
Berry Reconciling the relational echoes of addiction: Holding on
WO2021172039A1 (en) Information processing device, information processing method, and program
JP2006235772A (en) Data collection analysis display system
KR102101311B1 (en) Method and apparatus for providing virtual reality including virtual pet
Cadge et al. “Watch Over Us Sweet Angels” How Loved Ones Remember Babies in a Hospital Memory Book
JP7350384B1 (en) Dialogue system and dialogue method
Counted Being authentic is the new image: a qualitative study on the authenticity constructions and self-images of Christian millennials in Africa
MacKenzie “Is All in All”: Exploring Spirituality with People with Expressive Aphasia Using a Phenomenological Approach
CN115186148A (en) Man-machine interaction system and method for realizing digital immortal
Sakurai et al. Embodiment matters: toward culture-specific robotized counselling

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220603

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220603

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20220613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230113

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230411

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230511

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20230512

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230906

R150 Certificate of patent or registration of utility model

Ref document number: 7350384

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150