JP7307576B2 - Program and information processing device - Google Patents

Program and information processing device Download PDF

Info

Publication number
JP7307576B2
JP7307576B2 JP2019064045A JP2019064045A JP7307576B2 JP 7307576 B2 JP7307576 B2 JP 7307576B2 JP 2019064045 A JP2019064045 A JP 2019064045A JP 2019064045 A JP2019064045 A JP 2019064045A JP 7307576 B2 JP7307576 B2 JP 7307576B2
Authority
JP
Japan
Prior art keywords
user
terminal
information
dialogue
avatar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019064045A
Other languages
Japanese (ja)
Other versions
JP2020166359A (en
Inventor
秀樹 木通
香苗 沢村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Research Institute Ltd
Original Assignee
Japan Research Institute Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Research Institute Ltd filed Critical Japan Research Institute Ltd
Priority to JP2019064045A priority Critical patent/JP7307576B2/en
Publication of JP2020166359A publication Critical patent/JP2020166359A/en
Application granted granted Critical
Publication of JP7307576B2 publication Critical patent/JP7307576B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示は、プログラム及び情報処理装置に関する。 The present disclosure relates to programs and information processing apparatuses.

近年、一人暮らしをする高齢者及び単身で施設に入居する高齢者が増加しており、このような高齢者は日常生活において会話の機会が少なく孤立感を感じる人もいる。そこで、例えば特許文献1では、ユーザが発した音声を取得した場合に、予め記憶してある音声を出力することにより、擬似的な会話を行うことができるぬいぐるみが提案されている。特許文献1に開示された技術では、ユーザがぬいぐるみを抱きながらぬいぐるみと擬似的な会話を行うことにより、ユーザに癒しを与えることができ、孤立感を和らげることができる。 In recent years, the number of elderly people living alone and elderly people living alone in facilities is increasing, and such elderly people have few opportunities for conversation in their daily lives, and some feel a sense of isolation. For example, Patent Literature 1 proposes a stuffed animal that can have a pseudo-conversation by outputting a pre-stored voice when the voice uttered by the user is acquired. With the technology disclosed in Patent Document 1, the user holds the stuffed animal and holds a pseudo-conversation with the stuffed animal.

特開2018-117821号公報JP 2018-117821 A

高齢者に限らず一人暮らしをする人は、例えば自宅に一人で居る場合に会話する相手がいないので、孤独感又は不安を感じるときもある。また、例えば家族又は同居人と暮らす人であっても、自室に一人で居る場合には孤独感又は不安を感じるときもある。しかし、特許文献1に開示された技術は高齢者を対象としており、孤独感又は不安を感じる全ての人に癒しを与えることは難しい。 Not only elderly people but also people who live alone sometimes feel loneliness or anxiety because there is no one to talk to when they are alone at home. Moreover, even a person who lives with a family member or cohabitant, for example, may sometimes feel loneliness or anxiety when he or she is alone in his or her room. However, the technology disclosed in Patent Literature 1 is intended for elderly people, and it is difficult to provide comfort to all people who feel loneliness or anxiety.

本開示は、斯かる事情に鑑みてなされたものであり、その目的とするところは、ユーザの孤独感又は不安を和らげることが可能なプログラム等を提供することにある。 The present disclosure has been made in view of such circumstances, and an object thereof is to provide a program or the like capable of alleviating the loneliness or anxiety of the user.

本開示に係るプログラムは、ユーザの言動に基づいてユーザ固有の情報を収集し、収集した前記ユーザ固有の情報に基づいて、前記ユーザが対話したい対話相手及び対話内容、前記ユーザが行きたい場所、又は、前記ユーザがやりたいことを特定し、前記対話相手及び対話内容を特定した場合、前記対話相手又は前記対話相手のアバターとの対話を、前記ユーザに対応して設定されたアバターを介して、前記ユーザ固有の情報に基づいて実行し、前記ユーザが行きたい場所を特定した場合、前記アバターを介して、前記ユーザ固有の情報に基づいて前記場所に関する情報を収集して前記場所への外出行為を擬似的に実行し、前記ユーザがやりたいことを特定した場合、前記アバターを介して、前記ユーザ固有の情報に基づいて前記やりたいことに関する情報を収集して前記やりたいことを擬似的に実行し、前記ユーザ固有の情報に基づいて前記アバターを介して実行された言動の実行結果を出力する処理をコンピュータに実行させる。 The program according to the present disclosure collects user-specific information based on the user's speech and behavior , and based on the collected user-specific information, the conversation partner the user wants to interact with, the content of the conversation, and the location the user wants to go. Or, when the user specifies what the user wants to do and specifies the dialogue partner and dialogue content, the dialogue with the dialogue partner or the avatar of the dialogue partner is performed via the avatar set corresponding to the user and executing based on the user-specific information , and when the user specifies a place to go, collecting information about the place based on the user-specific information and going out to the place via the avatar. When the action is simulated and the user specifies what the user wants to do, information about the desired task is collected based on the user-specific information via the avatar, and the desired task is simulated. and causing a computer to execute a process of outputting execution results of speech and behavior executed via the avatar based on the user-specific information.

本開示では、ユーザに対応するアバターが、ユーザの言動から収集したユーザ固有の情報に基づく言動を行う。よって、例えばユーザは、自身のアバターとの間で会話を行うことができ、ユーザの孤独感又は不安等を和らげることができる。またユーザは、自身のアバターが自身固有の情報に基づいて実行した言動の結果を知ることができるので、アバターが行った言動、即ちユーザ自身が行っていない言動を擬似的に体験することができる。よって、ユーザは、アバターを介した擬似的な体験や自身による擬似的な体験を通して、新たな気づきを得て、精神的により豊かな生活を送ることができるようになったり、現実の接点の拡大によって実際の行動変化を引き起こしたりすることにより、社会とのつながりを感じることができ、ユーザの孤独感又は不安等を和らげることができる。 In the present disclosure, an avatar corresponding to a user performs speech and behavior based on user-specific information collected from the user's speech and behavior. Therefore, for example, the user can have a conversation with his or her own avatar, and the loneliness or anxiety of the user can be alleviated. In addition, since the user can know the result of the behavior performed by his/her own avatar based on the information unique to the user, the user can simulate the behavior performed by the avatar, that is, the behavior that the user did not perform. . Therefore, through simulated experiences via avatars and simulated experiences by themselves, users can gain new awareness, become able to live spiritually richer lives, and expand their real-life contact points. By causing an actual change in behavior by the user, the user can feel a connection with society, and the loneliness or anxiety of the user can be alleviated.

情報処理システムの構成例を示す模式図である。1 is a schematic diagram showing a configuration example of an information processing system; FIG. 自端末の構成例を示すブロック図である。3 is a block diagram showing a configuration example of a self-terminal; FIG. 自端末に記憶されるDBの構成例を示す模式図である。4 is a schematic diagram showing a configuration example of a DB stored in the own terminal; FIG. 自端末に記憶されるDBの構成例を示す模式図である。4 is a schematic diagram showing a configuration example of a DB stored in the own terminal; FIG. 自端末によるユーザ固有情報の収集処理の手順例を示すフローチャートである。FIG. 10 is a flowchart showing an example of a procedure for collection processing of user-specific information by its own terminal; FIG. 画面例を示す模式図である。It is a schematic diagram which shows an example of a screen. 自端末及び他端末による言動処理の手順例を示すフローチャートである。10 is a flow chart showing an example of a procedure of behavior processing by the own terminal and another terminal; 自端末及び他端末による言動処理の手順例を示すフローチャートである。10 is a flow chart showing an example of a procedure of behavior processing by the own terminal and another terminal; 自端末及び他端末による言動処理の手順例を示すフローチャートである。10 is a flow chart showing an example of a procedure of behavior processing by the own terminal and another terminal; 自端末及び他端末による言動処理の手順例を示すフローチャートである。10 is a flow chart showing an example of a procedure of behavior processing by the own terminal and another terminal; 画面例を示す模式図である。It is a schematic diagram which shows an example of a screen. 自端末による言動処理の手順例を示すフローチャートである。4 is a flow chart showing an example of a procedure of behavior processing by the own terminal; 自端末による言動履歴の再生処理の手順例を示すフローチャートである。FIG. 10 is a flowchart showing an example of a procedure of reproduction processing of behavior history by the own terminal; FIG. 画面例を示す模式図である。It is a schematic diagram which shows an example of a screen. 実施形態2の情報処理システムの構成例を示す模式図である。FIG. 10 is a schematic diagram showing a configuration example of an information processing system according to a second embodiment; 自端末によるユーザ固有情報の収集処理の手順例を示すフローチャートである。10 is a flowchart showing an example of a procedure for collection processing of user-specific information by its own terminal; 実施形態3の自端末の構成例を示すブロック図である。FIG. 12 is a block diagram showing a configuration example of the own terminal according to Embodiment 3; 実施形態3の自端末及び他端末による言動処理の手順例を示すフローチャートである。14 is a flow chart showing an example of a procedure of behavior processing by the own terminal and another terminal according to the third embodiment; サーバの構成例を示すブロック図である。It is a block diagram which shows the structural example of a server. サーバによる言動処理の手順例を示すフローチャートである。It is a flowchart which shows the procedure example of the behavior process by a server.

以下に、本開示のプログラム及び情報処理装置について、その実施形態を示す図面に基づいて詳述する。 The program and the information processing apparatus of the present disclosure will be described in detail below based on the drawings showing the embodiments thereof.

(実施形態1)
図1は情報処理システムの構成例を示す模式図である。本実施形態の情報処理システムは、多数のユーザが自身の端末を用いて他のユーザの端末との間でやり取りを行うシステムである。本実施形態の情報処理システムでは、各ユーザの端末に各ユーザに対応するアバターが設定してあり、各ユーザは、端末を介して他のユーザとやり取りを行うだけでなく、他のユーザのアバターともやり取りを行うことができる。よって、各ユーザの端末に設定されている各ユーザのアバターは、端末を介して他のユーザとやり取りを行うだけでなく、他のユーザのアバターともやり取りを行うことができる。なお、やり取りとは例えば対話処理に係る情報の送受信、インターネット等のネットワークN上で公開されている情報の収集等である。本実施形態の情報処理システムは多数のユーザ端末10,20を含み、ユーザ端末10,20はネットワークNを介して相互に情報の送受信を行う。以下では、1人のユーザを自身とし、他のユーザを他者とし、自身のユーザ端末を自端末10とし、他者のユーザ端末を他端末20として説明する。自端末10及び他端末20は同様のユーザ端末を用いることができ、例えばスマートフォン、タブレット端末、パーソナルコンピュータ、携帯ゲーム機等を用いることができる。また、自端末10及び他端末20は情報処理システムに用いられる専用端末で構成されてもよい。本実施形態の情報処理システムにおいて、ユーザ端末10,20のそれぞれは、各端末10,20のユーザにおけるユーザ固有の情報(ユーザ固有情報)を収集する処理、ネットワークN経由で他のユーザ端末10,20又は他の装置との間で情報を送受信する処理等、種々の情報処理及び通信処理を行う。
(Embodiment 1)
FIG. 1 is a schematic diagram showing a configuration example of an information processing system. The information processing system of this embodiment is a system in which a large number of users communicate with other users' terminals using their own terminals. In the information processing system of this embodiment, an avatar corresponding to each user is set in each user's terminal, and each user not only communicates with other users via the terminal, but also interacts with other users' avatars. can interact with. Therefore, each user's avatar set in each user's terminal can not only communicate with other users via the terminal, but can also communicate with other users' avatars. Note that exchange includes, for example, transmission and reception of information related to interactive processing, collection of information published on a network N such as the Internet, and the like. The information processing system of this embodiment includes a large number of user terminals 10 and 20, and the user terminals 10 and 20 transmit and receive information to and from each other via a network N. FIG. In the following description, one user is the self, another user is the other, the own user terminal is the self terminal 10, and the other user's user terminal is the other terminal 20. FIG. Similar user terminals can be used for the own terminal 10 and the other terminal 20, and for example, smartphones, tablet terminals, personal computers, portable game machines, and the like can be used. Also, the own terminal 10 and the other terminal 20 may be composed of dedicated terminals used in an information processing system. In the information processing system of the present embodiment, each of the user terminals 10 and 20 performs a process of collecting user-specific information (user-specific information) of the user of each terminal 10 and 20, another user terminal 10 via the network N, 20 or other devices, and performs various information processing and communication processing.

図2は自端末10の構成例を示すブロック図である。自端末10は、制御部11、記憶部12、処理部13、通信部14、入力部15、表示部16、スピーカ17、マイク18、読み取り部19等を含み、これらの各部はバスを介して相互に接続されている。制御部11は、CPU(Central Processing Unit)、MPU(Micro-Processing Unit)又はGPU(Graphics Processing Unit)等の1又は複数のプロセッサを含む。制御部11は、記憶部12に記憶してある制御プログラム12Pを適宜実行することにより、本開示の情報処理装置が行うべき種々の情報処理、制御処理等を自端末10に実行させる。 FIG. 2 is a block diagram showing a configuration example of the own terminal 10. As shown in FIG. The own terminal 10 includes a control unit 11, a storage unit 12, a processing unit 13, a communication unit 14, an input unit 15, a display unit 16, a speaker 17, a microphone 18, a reading unit 19, etc., and these units are connected via a bus. interconnected. The control unit 11 includes one or more processors such as a CPU (Central Processing Unit), an MPU (Micro-Processing Unit), or a GPU (Graphics Processing Unit). By appropriately executing the control program 12P stored in the storage unit 12, the control unit 11 causes the own terminal 10 to execute various information processing, control processing, and the like that should be performed by the information processing apparatus of the present disclosure.

記憶部12は、RAM(Random Access Memory)、フラッシュメモリ、ハードディスク、SSD(Solid State Drive)等を含む。記憶部12は、制御部11が実行する制御プログラム12P及び制御プログラム12Pの実行に必要な各種のデータ等を予め記憶している。また記憶部12は、制御部11が制御プログラム12Pを実行する際に発生するデータ等を一時的に記憶する。更に記憶部12は、後述する固有情報DB(データベース)12a、宛先情報DB12b及び言動履歴DB12cを記憶する。固有情報DB12a、宛先情報DB12b及び言動履歴DB12cは、自端末10に接続された外部記憶装置に記憶されてもよく、自端末10が通信可能な外部記憶装置に記憶されてもよい。更に記憶部12は、自端末10のユーザに対応付けて設定されたアバターに関する情報を記憶する。アバターに関する情報は、アバターを表示するための画像データ、アバターに発話させる際の音声データ、アバターの表示画像に動きを付加するためのモーションデータ等を含む。 The storage unit 12 includes a RAM (Random Access Memory), flash memory, hard disk, SSD (Solid State Drive), and the like. The storage unit 12 stores in advance a control program 12P executed by the control unit 11 and various data necessary for executing the control program 12P. The storage unit 12 also temporarily stores data and the like generated when the control unit 11 executes the control program 12P. Further, the storage unit 12 stores a unique information DB (database) 12a, a destination information DB 12b, and a behavior history DB 12c, which will be described later. The unique information DB 12a, the destination information DB 12b, and the behavior history DB 12c may be stored in an external storage device connected to the own terminal 10, or may be stored in an external storage device with which the own terminal 10 can communicate. Furthermore, the storage unit 12 stores information about the avatar set in association with the user of the own terminal 10 . The information about the avatar includes image data for displaying the avatar, audio data for making the avatar speak, motion data for adding movement to the displayed image of the avatar, and the like.

処理部13は、対話処理部13a、固有情報収集部13b、言動実行部13c、履歴出力部13d等を含む。処理部13の各部は、例えば記憶部12に記憶してある制御プログラム12Pを制御部11が実行することによって実現されてもよいし、これらの一部を専用のハードウェア回路で実現してもよい。対話処理部13aは、自端末10のユーザとの対話を行う。例えば対話処理部13aは、マイク18を介した音声入力又は入力部15を介した入力(例えばテキスト入力)によってユーザからの対話情報を取得し、取得した対話情報に対する返答情報をスピーカ17を介した音声出力又は表示部16に表示することによってユーザに返答し、自端末10のユーザとの対話を行うように構成されている。なお、対話処理部13aは、ユーザからの対話情報に対して行うべき返答情報を予めテンプレートとして複数記憶しておき、ユーザからの対話情報に応じた返答情報をテンプレートから選択して出力することにより対話を行ってもよい。また対話処理部13aは、ユーザからの対話情報に応じた返答情報を、後述する固有情報DB12aに蓄積されたユーザ固有情報に基づいて生成して出力することにより対話を行ってもよい。更に、対話処理部13aは、挨拶メッセージ及び質問メッセージ等の対話情報をスピーカ17を介した音声出力又は表示部16に表示することによってユーザに話しかけ、マイク18を介した音声入力又は入力部15を介した入力によってユーザからの返答情報を取得することにより、自端末10のユーザとの対話を行う。この場合、対話処理部13aは、挨拶メッセージ及び質問メッセージ等の対話情報を予めテンプレートとして複数記憶しておき、任意のテンプレートを選択して出力することにより、ユーザに話しかけてもよい。 The processing unit 13 includes a dialog processing unit 13a, a unique information collecting unit 13b, a behavior executing unit 13c, a history output unit 13d, and the like. Each unit of the processing unit 13 may be implemented by the control unit 11 executing the control program 12P stored in the storage unit 12, for example, or may be implemented by a dedicated hardware circuit. good. The dialogue processing unit 13a conducts dialogue with the user of the terminal 10 itself. For example, the dialogue processing unit 13a acquires dialogue information from the user by voice input via the microphone 18 or input (for example, text input) via the input unit 15, and transmits response information to the obtained dialogue information via the speaker 17. It is configured to respond to the user by voice output or display on the display unit 16 and to have a dialogue with the user of the own terminal 10 . The dialogue processing unit 13a stores in advance a plurality of templates of reply information to be made to the dialogue information from the user, and selects and outputs the reply information corresponding to the dialogue information from the user from the templates. You can have a dialogue. Further, the dialog processing unit 13a may perform a dialog by generating and outputting response information corresponding to the dialog information from the user based on the user unique information accumulated in the unique information DB 12a, which will be described later. Further, the dialogue processing unit 13a speaks to the user by outputting dialogue information such as a greeting message and a question message by voice through the speaker 17 or displaying it on the display unit 16, and inputs voice through the microphone 18 or the input unit 15. By obtaining reply information from the user by inputting through the terminal 10, a dialogue with the user of the own terminal 10 is performed. In this case, the dialog processing unit 13a may store a plurality of dialog information such as greeting messages and question messages in advance as templates, and may speak to the user by selecting and outputting an arbitrary template.

対話処理部13aは、他端末20のユーザ又は他端末20のユーザのアバター(他端末20のアバター)との対話も行う。例えば対話処理部13aは、他端末20から送信された、他端末20のユーザ又は他端末20のアバターからの対話情報を取得し、取得した対話情報に対する返答情報を他端末20へ返信することによって他端末20のユーザ又はアバターに返答し、他端末20のユーザ又はアバターとの対話を行う。この場合にも、対話処理部13aは、他端末20のユーザ又はアバターからの対話情報に応じた返答情報をテンプレートから選択して出力することにより対話を行ってもよいし、後述する固有情報DB12aに蓄積されたユーザ固有情報に基づいて返答情報を生成して出力することにより対話を行ってもよい。また、対話処理部13aは、挨拶メッセージ及び質問メッセージ等の対話情報を他端末20のユーザ又はアバター宛に送信することによって他端末20のユーザ又はアバターに話しかけ、他端末20のユーザ又は他端末20のアバターからの返答情報を取得することにより、他端末20のユーザ又はアバターとの対話を行う。この場合にも、対話処理部13aは、予め記憶してある対話情報を選択して他端末20のユーザ又はアバター宛に送信することにより、他端末20のユーザ又はアバターに話しかけてもよい。 The interaction processing unit 13a also interacts with the user of the other terminal 20 or the avatar of the user of the other terminal 20 (the avatar of the other terminal 20). For example, the interaction processing unit 13a acquires interaction information from the user of the other terminal 20 or the avatar of the other terminal 20, which is transmitted from the other terminal 20, and returns reply information to the acquired interaction information to the other terminal 20. It responds to the user or avatar of the other terminal 20 and interacts with the user or avatar of the other terminal 20 . In this case as well, the dialogue processing unit 13a may perform dialogue by selecting and outputting response information corresponding to the dialogue information from the user or the avatar of the other terminal 20 from the template, or by outputting the response information. A dialogue may be performed by generating and outputting reply information based on the user-specific information stored in the . Further, the dialogue processing unit 13a speaks to the user or the avatar of the other terminal 20 by transmitting dialogue information such as a greeting message and a question message to the user or the avatar of the other terminal 20, and By acquiring the reply information from the avatar of the other terminal 20, a dialogue with the user of the other terminal 20 or the avatar is performed. In this case as well, the dialogue processing unit 13a may speak to the user of the other terminal 20 or the avatar by selecting the dialogue information stored in advance and transmitting it to the user or the avatar of the other terminal 20 .

固有情報収集部(収集部)13bは、自端末10のユーザの言動に基づいて、自端末10のユーザのユーザ固有情報を収集する。例えば固有情報収集部13bは、対話処理部13aが自端末10のユーザとの間で行った対話内容からユーザ固有情報を収集する。また、固有情報収集部13bは、例えば対話処理部13aによって、ユーザ固有情報に関する質問を自端末10のユーザに行い、質問に対する回答を取得した場合に、取得した回答内容からユーザ固有情報を収集してもよい。更に、固有情報収集部13bは、自端末10にインストールされている各種のアプリケーションプログラムによって実行可能な処理に係る情報からユーザ固有情報を収集してもよい。例えば、固有情報収集部13bは、自端末10が他端末20との間で送受信した電子メール、LINE(登録商標)メッセージ及びLINEスタンプ、SNS(Social Network Service)に対して自端末10のユーザが投稿したメッセージ及び閲覧したメッセージ、ネットワークNを介して提供される各種サービスによって送受信されるデータ等からユーザ固有情報を収集してもよい。また固有情報収集部13bは、自端末10のユーザが行った行動に基づいてユーザ固有情報を収集してもよい。例えば、自端末10のユーザがLINEメッセージを受信したときに所定のLINEスタンプ又はLINEメッセージを返信する場合、固有情報収集部13bは、LINEメッセージの受信に対して所定のLINEスタンプ又はLINEメッセージを返信することをユーザ固有情報として取得する。ユーザ固有情報は例えば、ユーザの属性、行動履歴、趣味、好み、行動傾向、思考傾向等を含む。 Unique information collection unit (collection unit) 13b collects user unique information of the user of own terminal 10 based on the behavior of the user of own terminal 10 . For example, the unique information collection unit 13b collects user unique information from the content of the dialogue between the user of the terminal 10 and the dialogue processing unit 13a. Further, when the unique information collecting unit 13b asks the user of the terminal 10 a question about the user unique information using the interactive processing unit 13a and acquires an answer to the question, the unique information collecting unit 13b collects the user unique information from the content of the acquired answer. may Furthermore, the unique information collection unit 13b may collect user unique information from information related to processes that can be executed by various application programs installed in the terminal 10 itself. For example, the unique information collection unit 13b collects e-mails, LINE (registered trademark) messages and LINE stamps sent and received between the terminal 10 and other terminals 20, and the user of the terminal 10 for SNS (Social Network Service). User-specific information may be collected from posted messages, viewed messages, data transmitted and received by various services provided via the network N, and the like. Further, the unique information collection unit 13b may collect user unique information based on actions taken by the user of the terminal 10 itself. For example, when the user of the terminal 10 receives a LINE message and returns a predetermined LINE stamp or LINE message, the unique information collection unit 13b returns a predetermined LINE stamp or LINE message in response to receiving the LINE message. to be acquired as user-specific information. User-specific information includes, for example, user attributes, action history, hobbies, preferences, action tendencies, thinking tendencies, and the like.

言動実行部(実行部)13cは、例えば自端末10のユーザからの指示又は行動傾向に従って、他端末20のユーザ又は他端末20のアバターとの間で対話を行い、また、ネットワークN上で公開されている各種の情報を収集する。具体的には、言動実行部13cは、他端末20を介して他のユーザとの間で情報の送受信を行い、他端末20を介して他端末20に設定してあるアバター(他端末20の言動実行部23c)との間で情報の送受信を行うことにより、他端末20のユーザ又はアバターとの対話を行う。なお、言動実行部13cは、対話処理部13aを用いて、他端末20のユーザ又はアバターとの対話を行う。また、言動実行部13cは、ネットワークN経由で各種の情報を検索して必要な情報を取得する。なお、屋外又は室内でカメラで撮影された撮影画像がネットワークN上で公開されており、このような撮影画像をネットワークN経由で取得することにより、言動実行部13cは擬似的に撮影場所に外出できる。よって、言動実行部13cは、自端末10のアバターを介して擬似的な外出処理を実行できる。 The behavior execution unit (execution unit) 13c, for example, according to an instruction from the user of the own terminal 10 or a behavioral tendency, interacts with the user of the other terminal 20 or the avatar of the other terminal 20, and also publishes on the network N Collect various information provided. Specifically, the behavior execution unit 13c transmits and receives information to and from other users via the other terminal 20, and uses the avatar set in the other terminal 20 via the other terminal 20. By transmitting and receiving information to and from the behavior execution unit 23c), it interacts with the user of the other terminal 20 or the avatar. Note that the behavior execution unit 13c uses the dialogue processing unit 13a to have a dialogue with the user of the other terminal 20 or the avatar. In addition, the behavior execution unit 13c searches for various types of information via the network N and acquires necessary information. In addition, captured images captured by a camera outdoors or indoors are open to the public on the network N, and by acquiring such captured images via the network N, the behavior execution unit 13c can go out to the shooting location in a pseudo manner. can. Therefore, the behavior executing unit 13c can execute a pseudo going-out process via the avatar of the terminal 10 itself.

履歴出力部(出力部)13dは、言動実行部13cが実行した言動の結果に係る履歴情報を、例えば表示部16又はスピーカ17にて出力する。例えば、履歴出力部13dは、他端末20を介して他のユーザ又は他のユーザのアバターとの間で送受信した情報(対話情報)、ネットワークN経由で収集した各種の情報を出力する。なお、履歴出力部13dは、出力すべき情報に画像データ又はテキストデータ等が含まれる場合、画像データ又はテキストデータに基づく画面を表示部16に表示し、音声データ又はテキストデータが含まれる場合、スピーカ17にて音声出力する。 The history output unit (output unit) 13d outputs history information related to the result of behavior executed by the behavior execution unit 13c through the display unit 16 or the speaker 17, for example. For example, the history output unit 13d outputs information (dialogue information) transmitted and received with other users or avatars of other users via the other terminal 20 and various types of information collected via the network N. When the information to be output includes image data or text data, the history output unit 13d displays a screen based on the image data or text data on the display unit 16. When the information to be output includes voice data or text data, Sound is output from the speaker 17 .

通信部14は、有線通信又は無線通信によってネットワークNに接続するためのインタフェースであり、ネットワークNを介して外部装置との間で情報の送受信を行う。入力部15は、ユーザによる操作入力を受け付け、操作内容に対応した制御信号を制御部11へ送出する。表示部16は、液晶ディスプレイ又は有機ELディスプレイ等であり、制御部11からの指示に従って各種の情報を表示する。入力部15及び表示部16は一体として構成されたタッチパネルであってもよい。 The communication unit 14 is an interface for connecting to the network N by wired communication or wireless communication, and transmits and receives information to and from an external device via the network N. The input unit 15 receives an operation input by the user and sends a control signal corresponding to the operation content to the control unit 11 . The display unit 16 is a liquid crystal display, an organic EL display, or the like, and displays various information according to instructions from the control unit 11 . The input unit 15 and the display unit 16 may be a touch panel integrally configured.

スピーカ17は、増幅器等を有する音声出力装置であり、制御部11からの指示に従った音声データを増幅器にて増幅した後、音声出力する。マイク18は、増幅器及びA/D(アナログ/デジタル)変換器等を有する音声入力装置であり、周囲の音声を収集してアナログの音声データを取得し、取得した音声データを増幅器にて増幅し、A/D変換器にてデジタルの音声データに変換して音声データを取得する。マイク18は、制御部11からの指示に従って集音を行い、取得した音声データを逐次制御部11へ送出する。スピーカ17及びマイク18は、自端末10に内蔵されていてもよいし、ケーブル等を介して自端末10に外付けされていてもよいし、一体として構成されたヘッドセットであってもよい。 The speaker 17 is an audio output device having an amplifier or the like, and outputs audio after amplifying the audio data according to the instruction from the control unit 11 by the amplifier. The microphone 18 is an audio input device having an amplifier, an A/D (analog/digital) converter, etc., collects ambient audio to obtain analog audio data, and amplifies the obtained audio data with an amplifier. , and an A/D converter to obtain digital audio data. The microphone 18 collects sounds according to instructions from the control unit 11 and sequentially sends the acquired audio data to the control unit 11 . The speaker 17 and the microphone 18 may be built in the own terminal 10, may be externally attached to the own terminal 10 via a cable or the like, or may be an integrated headset.

読み取り部19は、CD(Compact Disc)-ROM、DVD(Digital Versatile Disc)-ROM又はUSB(Universal Serial Bus)メモリを含む可搬型記憶媒体1aに記憶された情報を読み取る。記憶部12に記憶される制御プログラム12P及び各種のデータは、制御部11が読み取り部19を介して可搬型記憶媒体1aから読み取って記憶部12に記憶してもよい。また、記憶部12に記憶される制御プログラム12P及び各種のデータは、制御部11が通信部14を介して外部装置からダウンロードして記憶部12に記憶してもよい。更に、制御プログラム12P及び各種のデータを半導体メモリ1bに記憶しておき、制御部11が半導体メモリ1bから読み出して記憶部12に記憶してもよい。 The reader 19 reads information stored in a portable storage medium 1a including CD (Compact Disc)-ROM, DVD (Digital Versatile Disc)-ROM, or USB (Universal Serial Bus) memory. The control program 12</b>P and various data stored in the storage unit 12 may be read from the portable storage medium 1 a by the control unit 11 via the reading unit 19 and stored in the storage unit 12 . The control program 12P and various data stored in the storage unit 12 may be downloaded from an external device by the control unit 11 via the communication unit 14 and stored in the storage unit 12 . Furthermore, the control program 12P and various data may be stored in the semiconductor memory 1b, and the control unit 11 may read them from the semiconductor memory 1b and store them in the storage unit 12. FIG.

図3及び図4は自端末10に記憶されるDB12a~12cの構成例を示す模式図である。図3は固有情報DB12aを、図4Aは宛先情報DB12bを、図4Bは言動履歴DB12cをそれぞれ示す。固有情報DB12aは、自端末10のユーザに関するユーザ固有情報を記憶する。ユーザ固有情報は、固有情報収集部13bが自端末10のユーザから収集して固有情報DB12aに記憶される。図3に示す固有情報DB12aは、情報ID列、情報内容列、固有情報列等を含む。情報ID列は、ユーザ固有情報のそれぞれに予め割り当てられた識別情報を記憶する。情報内容列は、ユーザ固有情報の内容、種別を示す情報を記憶する。なお、それぞれの情報IDに対応するユーザ固有情報の内容が明らかであれば、固有情報DB12aに情報内容列を設けなくてもよい。固有情報列は、固有情報収集部13bが収集したユーザ固有情報を記憶する。固有情報DB12aに記憶される情報ID及び情報内容は予め記憶されており、固有情報は、固有情報収集部13bが各種のユーザ固有情報を取得した場合に、制御部11によって記憶又は更新される。 3 and 4 are schematic diagrams showing configuration examples of the DBs 12a to 12c stored in the own terminal 10. FIG. 3 shows the unique information DB 12a, FIG. 4A shows the destination information DB 12b, and FIG. 4B shows the behavior history DB 12c. The unique information DB 12a stores user unique information related to the user of the terminal 10 itself. The user unique information is collected from the user of the own terminal 10 by the unique information collection unit 13b and stored in the unique information DB 12a. The specific information DB 12a shown in FIG. 3 includes an information ID string, an information content string, a specific information string, and the like. The information ID column stores identification information pre-assigned to each piece of user-specific information. The information content column stores information indicating the content and type of user unique information. If the content of the user unique information corresponding to each information ID is clear, the unique information DB 12a may not have the information content column. The unique information string stores the user unique information collected by the unique information collecting unit 13b. Information IDs and information contents stored in the unique information DB 12a are stored in advance, and the unique information is stored or updated by the control unit 11 when the unique information collection unit 13b acquires various user unique information.

図3に示す固有情報DB12aでは、ユーザ固有情報として、氏名,年齢,性別等を含む属性、住所,勤務先会社名,通学先学校名,家族構成,家族の情報等を含む個人情報、性格,趣味,好きなこと,好きなもの,好きな食べ物,好きな飲み物,好きな果物,嫌いなこと,嫌いなもの,嫌いな食べ物,嫌いな飲み物,嫌いな果物等を含む嗜好に関する情報、嬉しかったこと,怒ったこと,気になっているもの,気になっている場所等を含む感情に関する情報等が登録される。固有情報DB12aの登録内容はこれらに限定されず、ユーザに関する種々の情報を登録することができるように構成されている。例えば、年収,通勤経路,会社での役職,同僚の情報及び上司の情報等を含む勤務先の情報、ペットに関する情報、行った場所を含む行動履歴及び行動傾向,購買した商品を含む購買履歴及び購買傾向,人柄及び考え方等のユーザの内面に関する情報等も固有情報DB12aに登録されてもよい。また、固有情報DB12aは、登録するユーザ固有情報の種類等に応じて複数のDBに分けて構成してもよい。 In the unique information DB 12a shown in FIG. 3, as user unique information, attributes including name, age, gender, etc., personal information including address, company name, school name, family composition, family information, personality, Hobbies, favorite things, favorite things, favorite foods, favorite drinks, favorite fruits, dislikes, disliked things, disliked foods, disliked drinks, disliked fruits, etc. Emotional information such as things, angry things, anxious things, anxious places, etc. are registered. The registered contents of the unique information DB 12a are not limited to these, and are configured so as to be able to register various information about the user. For example, annual income, commuting route, position in the company, workplace information including information on colleagues and bosses, information on pets, behavior history and behavior trends including places visited, purchase history including purchased products and Information related to the user's inner state, such as purchasing tendency, personality, and way of thinking, may also be registered in the unique information DB 12a. Further, the unique information DB 12a may be divided into a plurality of DBs according to the type of user unique information to be registered.

宛先情報DB12bは、自端末10がネットワークN経由で情報の送受信を行う際に用いる他端末20の宛先情報を記憶するアドレス帳である。図4Aに示す宛先情報DB12bは、端末ID列、所有者名列、宛先情報列等を含む。端末ID列は、各他端末20に予め割り当てられた識別情報を記憶し、所有者名列は、端末IDに対応付けて各他端末20のユーザ(他者)の氏名を記憶する。宛先情報列は、端末IDに対応付けて各他端末20に割り当てられた宛先情報を記憶する。宛先情報は、例えば各他端末20に割り当てられた電話番号、メールアドレス、IP(Internet Protocol Address )アドレス、LINE-ID等を用いることができる。宛先情報DB12bに記憶される端末IDは、制御部11が新たな他端末20の情報を入力部15又は通信部14を介して取得した場合に、制御部11によって発行されて記憶される。宛先情報DB12bに記憶される端末ID以外の各情報は、制御部11が入力部15又は通信部14を介して追加又は変更の指示を取得する都度、制御部11によって追加又は変更される。宛先情報DB12bの記憶内容は図4Aに示す例に限定されず、他端末20に関する各種の情報を記憶することができる。 The destination information DB 12b is an address book that stores destination information of other terminals 20 used when the own terminal 10 transmits and receives information via the network N. FIG. The destination information DB 12b shown in FIG. 4A includes a terminal ID column, an owner name column, a destination information column, and the like. The terminal ID column stores identification information assigned in advance to each other terminal 20, and the owner name column stores the name of the user (other person) of each other terminal 20 in association with the terminal ID. The destination information column stores destination information assigned to each other terminal 20 in association with the terminal ID. For the destination information, for example, a telephone number assigned to each other terminal 20, a mail address, an IP (Internet Protocol Address) address, a LINE-ID, or the like can be used. The terminal ID stored in the destination information DB 12b is issued and stored by the control unit 11 when the control unit 11 acquires new information on the other terminal 20 via the input unit 15 or the communication unit 14. FIG. Information other than the terminal ID stored in the destination information DB 12b is added or changed by the control unit 11 each time the control unit 11 acquires an addition or change instruction via the input unit 15 or the communication unit 14 . The storage contents of the destination information DB 12b are not limited to the example shown in FIG. 4A, and various types of information regarding the other terminal 20 can be stored.

言動履歴DB12cは、言動実行部13cが実行した言動の結果に係る履歴情報を記憶する。図4Bに示す言動履歴DB12cは、言動ID列、言動内容列、相手情報列、場所情報列、言動データ列等を含む。言動ID列は、言動実行部13cが実行した言動(言動処理)のそれぞれに予め割り当てられた識別情報を記憶し、言動内容列は言動IDに対応付けて、言動実行部13cが実行した言動(言動処理)の内容を示す情報を記憶する。なお、言動の内容は、他のユーザ又は他のユーザのアバターとの間で行った対話、ネットワークN経由で擬似的に行った外出等を含む。相手情報列は、言動IDに対応付けて、言動実行部13cが実行した言動における相手の情報を記憶する。言動における相手は、言動実行部13cが実行した対話の相手、言動実行部13cが実行した外出の同伴者等であり、相手の他端末20の端末ID、所有者名又は宛先情報が相手情報列に記憶される。場所情報列は、言動IDに対応付けて、言動実行部13cが実行した言動における場所の情報を記憶する。言動における場所は、例えば言動実行部13cが擬似的に行った外出先の場所であり、ネットワークN経由で取得した撮影画像の撮影場所の情報が場所情報列に記憶される。言動データ列は、言動IDに対応付けて、言動実行部13cが実行した言動における言動データを記憶する。言動データは例えば、他のユーザ又は他のユーザのアバターとの間で行った対話に関する対話データ(音声データ又はテキストデータ)、ネットワークN経由で取得した撮影画像(画像データ)等である。なお、言動データは、言動履歴DB12cに記憶される構成に限らず、記憶部12の所定領域又は自端末10に接続された外部記憶装置に記憶してもよい。この場合、言動データ列には、言動データ(対話データ又は撮影画像等)を読み出すための情報(例えばデータの記憶場所を示すファイル名)を記憶してもよい。言動履歴DB12cの記憶内容は図4Bに示す例に限定されず、言動履歴に関する各種の情報を記憶することができる。 The behavior history DB 12c stores history information related to results of behavior executed by the behavior executing unit 13c. The behavior history DB 12c illustrated in FIG. 4B includes a behavior ID column, a behavior content column, a partner information column, a location information column, a behavior data column, and the like. The behavior ID column stores identification information pre-assigned to each behavior (behavior processing) executed by the behavior executing unit 13c, and the behavior content column is associated with the behavior ID and indicates the behavior (behavior processing) executed by the behavior executing unit 13c. (speech and action processing) is stored. Note that the content of the behavior includes conversations with other users or other users' avatars, virtual going out via the network N, and the like. The partner information column stores information about the partner in the behavior executed by the behavior executing unit 13c in association with the behavior ID. The partner in the behavior is the partner of the conversation executed by the behavior executing unit 13c, the accompanying person on the outing executed by the behavior executing unit 13c, and the like. stored in The location information column stores location information in the behavior executed by the behavior executing unit 13c in association with the behavior ID. The place in the speech and action is, for example, the place where the speech and action execution unit 13c simulated going out, and the information of the photographing location of the photographed image acquired via the network N is stored in the place information string. The behavior data column stores the behavior data in the behavior executed by the behavior executing unit 13c in association with the behavior ID. Behavior data is, for example, dialogue data (audio data or text data) related to dialogue with another user or another user's avatar, captured images (image data) acquired via the network N, and the like. Note that the behavior data is not limited to being stored in the behavior history DB 12c, and may be stored in a predetermined area of the storage unit 12 or an external storage device connected to the terminal 10 itself. In this case, the behavior data string may store information (for example, a file name indicating the storage location of the data) for reading the behavior data (dialogue data, captured image, etc.). The stored content of the behavior history DB 12c is not limited to the example shown in FIG. 4B, and can store various kinds of information regarding the behavior history.

他端末20は、自端末10の上述した構成と同様の構成を有しており、自端末10が有する各構成部11~19は、他端末20において各構成部21~29として説明を省略する。 The other terminal 20 has the same configuration as the above-described configuration of the own terminal 10, and the constituent units 11 to 19 of the own terminal 10 are referred to as the constituent units 21 to 29 in the other terminal 20, and the description thereof is omitted. .

以下に、それぞれのユーザ端末10,20が行う処理について説明する。なお、自端末10及び他端末20はそれぞれ同様の処理を行うので、以下では代表して自端末10が行う処理を例に説明する。図5は、自端末10によるユーザ固有情報の収集処理の手順例を示すフローチャート、図6は画面例を示す模式図である。以下の処理は、自端末10の記憶部12に記憶してある制御プログラム12Pに従って制御部11によって実行される。自端末10の制御部11は、適宜のタイミングで固有情報収集部13bによって自端末10のユーザに関するユーザ固有情報を収集する。適宜のタイミングとは例えば、1週間に1回、1ヶ月に1回等の定期的なタイミングであってもよいし、固有情報DB12aにある程度のユーザ固有情報が蓄積されるまで連続したタイミングであってもよい。 Processing performed by each of the user terminals 10 and 20 will be described below. Since the own terminal 10 and the other terminal 20 each perform the same processing, the processing performed by the own terminal 10 as a representative will be described below as an example. FIG. 5 is a flow chart showing an example of a procedure for collecting user-specific information by the own terminal 10, and FIG. 6 is a schematic diagram showing an example of a screen. The following processing is executed by the control unit 11 according to the control program 12P stored in the storage unit 12 of the terminal 10 itself. The control unit 11 of the own terminal 10 collects the user-specific information regarding the user of the own terminal 10 by the specific information collection unit 13b at an appropriate timing. The appropriate timing may be, for example, regular timing such as once a week or once a month, or continuous timing until a certain amount of user unique information is accumulated in the unique information DB 12a. may

例えば固有情報収集部13bは、対話処理部13aによって自端末10のユーザとの対話を行い、自端末10のユーザと対話すべき対話メッセージ(対話情報)を生成する(S11)。ここでの対話メッセージは、「こんにちは。元気?」のような挨拶メッセージであってもよいし、ユーザからの対話メッセージに対する応答メッセージであってもよい。また、固有情報収集部13bは、ユーザ固有情報を収集できるような質問メッセージを対話メッセージとして生成してもよい。固有情報収集部13bは、生成した対話メッセージをスピーカ17又は表示部16にて出力する(S12)。固有情報収集部13bは、対話メッセージが音声データを含む場合、スピーカ17から音声出力し、対話メッセージが画像データ又はテキストデータ等の表示用データを含む場合、表示部16に表示する。このとき固有情報収集部13b(又は対話処理部13a)は、例えば記憶部12に記憶してあるアバターに係る画像データに基づいて、図6に示すように、自端末10のユーザのアバターの画像を表示部16に表示してもよい。また固有情報収集部13b(又は対話処理部13a)は、記憶部12に記憶してあるアバターに係る音声データに基づく音声にて対話メッセージをスピーカ17から音声出力してもよい。この場合、ユーザは、図6に示す画面に表示されたアバターと対面して対話しているように感じることができる。なお、アバターの表示画像は、自端末10のユーザの実写画像、人間に似たキャラクタの画像、動物等の画像、動物等のキャラクタの画像等を用いることができる。 For example, the unique information collection unit 13b performs dialogue with the user of the terminal 10 by the dialogue processing unit 13a, and generates a dialogue message (dialogue information) to be dialogued with the user of the terminal 10 (S11). The dialogue message here may be a greeting message such as "Hello. How are you?" or a response message to the dialogue message from the user. Further, the unique information collection unit 13b may generate a question message as a dialogue message that enables collection of user unique information. The unique information collection unit 13b outputs the generated dialogue message through the speaker 17 or the display unit 16 (S12). When the dialogue message contains voice data, the unique information collection unit 13b outputs the voice from the speaker 17, and when the dialogue message contains display data such as image data or text data, the display unit 16 displays the data. At this time, the unique information collection unit 13b (or the dialogue processing unit 13a) generates an image of the avatar of the user of the terminal 10 as shown in FIG. may be displayed on the display unit 16. Further, the unique information collection unit 13b (or the dialogue processing unit 13a) may output the dialogue message from the speaker 17 as voice based on the voice data related to the avatar stored in the storage unit 12. FIG. In this case, the user can feel as if he/she is interacting face-to-face with the avatar displayed on the screen shown in FIG. As the display image of the avatar, a photographed image of the user of the terminal 10, an image of a character resembling a human being, an image of an animal or the like, an image of a character such as an animal, or the like can be used.

固有情報収集部13bは、出力した対話メッセージに対してユーザが回答した情報をマイク18又は入力部15にて取得する(S13)。なお、固有情報収集部13bは、ユーザが発話によって回答した場合、回答情報をマイク18を介した音声入力にて取得し、ユーザが入力部15を介して回答した場合、回答情報を入力部15を介して取得する。そして固有情報収集部13bは、取得した回答情報からユーザ固有情報を抽出する(S14)。例えば、固有情報収集部13bが「お名前を教えてください」と質問メッセージ(対話メッセージ)を音声出力し、ユーザが「○○○○です」と発話した場合、固有情報収集部13bは、ユーザの回答情報「○○○○です」から、ユーザの氏名(ユーザ固有情報)「○○○○」を抽出する。また対話処理部13aとの対話でユーザが「今日、お父さんと喧嘩したよ」と発話した場合、固有情報収集部13bは、ユーザの発話内容から、最近の出来事に関する情報(ユーザ固有情報)として「今日お父さんと喧嘩した」を抽出する。また、例えばユーザが「今日は○○の映画を観たよ」と発話した場合、固有情報収集部13bは、ユーザの発話内容から、ユーザが最近観た映画の情報(ユーザ固有情報)として「○○」を抽出する。 The specific information collection unit 13b acquires information of the user's response to the output interactive message through the microphone 18 or the input unit 15 (S13). When the user answers by speaking, the unique information collecting unit 13b acquires the answer information by voice input through the microphone 18. to get through. Then, the unique information collection unit 13b extracts user unique information from the acquired answer information (S14). For example, when the unique information collecting unit 13b outputs a question message (dialogue message) saying “Please tell me your name” and the user says “I am ○○○○”, the unique information collecting unit 13b asks the user The user's name (user-specific information) "○○○○" is extracted from the answer information "○○○○". In addition, when the user utters "I had a fight with my father today" in the dialogue with the dialogue processing unit 13a, the unique information collection unit 13b extracts " I had a fight with my father today" is extracted. Further, for example, when the user utters, "I watched a movie of XX today," the specific information collection unit 13b extracts information on a movie recently watched by the user (user specific information) from the contents of the user's utterance. ○” is extracted.

固有情報収集部13bは、取得したユーザ固有情報を、情報ID及び情報内容に対応付けて固有情報DB12aに記憶する(S15)。例えば、固有情報DB12aに登録すべきユーザ固有情報に対応する質問メッセージが記憶部12に予め記憶してあり、固有情報収集部13bは、各質問メッセージについて自端末10のユーザに質問を行うことにより、固有情報DB12aに登録すべきユーザ固有情報を収集できる。また、対話処理部13aが自端末10のユーザと対話を行う都度、固有情報収集部13bは、ユーザによる対話内容からユーザ固有情報を収集でき、固有情報DB12aに蓄積できる。 The unique information collection unit 13b stores the acquired user unique information in the unique information DB 12a in association with the information ID and the information content (S15). For example, question messages corresponding to user unique information to be registered in the unique information DB 12a are stored in advance in the storage unit 12, and the unique information collection unit 13b asks the user of the terminal 10 about each question message. , user unique information to be registered in the unique information DB 12a can be collected. Moreover, each time the dialog processing unit 13a interacts with the user of the terminal 10, the unique information collecting unit 13b can collect user unique information from the content of the user's dialog and store it in the unique information DB 12a.

上述した処理により、ユーザとの対話内容からユーザ固有情報が逐次抽出されて登録されるので、ユーザが意識することなくユーザ固有情報の蓄積が可能である。なお、固有情報DB12aに記憶されるユーザ固有情報は、既に固有情報DB12aに記憶してある場合、上書きして記憶してもよいし、取得日時と共に時系列データとして記憶(蓄積)してもよい。このようにユーザに関する各種の情報(ユーザ固有情報)を蓄積することにより、自端末10に設定されたアバター(ユーザのアバター)に、ユーザ固有情報に基づく言動を行わせることができる。即ち、自端末10のユーザが行う可能性の高い言動を自端末10のアバターに行わせることができる。なお、ユーザ固有情報を収集する際に、ユーザの心拍数、脳波、筋電図等を計測し、ユーザの心身の状態がリラックスして冷静であるか否かを判断し、冷静である時に収集したユーザ固有情報のみを固有情報DB12aに蓄積するようにしてもよい。この場合、心身の状態が冷静でない興奮状態の時に収集されたユーザ固有情報を破棄することにより、ユーザの普段の状態で収集されたユーザ固有情報のみを蓄積できる。 By the above-described processing, the user-specific information is sequentially extracted from the contents of the dialogue with the user and registered, so that the user-specific information can be accumulated without the user being aware of it. If the user unique information stored in the unique information DB 12a has already been stored in the unique information DB 12a, the user unique information may be overwritten, or may be stored (accumulated) as time-series data together with the date and time of acquisition. . By accumulating various types of information (user-specific information) about the user in this way, the avatar (user's avatar) set in the terminal 10 can be made to perform behavior based on the user-specific information. That is, it is possible to make the avatar of the terminal 10 perform behaviors that are highly likely to be performed by the user of the terminal 10 . When collecting user-specific information, the user's heart rate, electroencephalogram, electromyogram, etc. are measured to determine whether the user's mental and physical state is relaxed and calm, and when the user is calm It is also possible to store only the user unique information that has been obtained in the unique information DB 12a. In this case, by discarding the user-specific information collected when the user is not calm and excited, it is possible to accumulate only the user-specific information collected when the user is in a normal state.

図7及び図8は、自端末10及び他端末20による言動処理の手順例を示すフローチャートである。以下の処理は、端末10,20の記憶部12,22に記憶してある制御プログラム12P,22Pに従って制御部11,21によって実行される。図7及び図8では左側に自端末10が行う処理を、右側に他端末20が行う処理をそれぞれ示す。図7及び図8に示す処理は、自端末10の制御部11が、言動実行部13cによって、自端末10に設定してあるアバターに、固有情報DB12aに記憶してあるユーザ固有情報に基づく言動処理(対話処理)を行わせ、他端末20のユーザ又はアバターとの間で対話を行う際の処理である。 7 and 8 are flowcharts showing an example of the procedure of behavior processing by the own terminal 10 and the other terminal 20. FIG. The following processing is executed by control units 11 and 21 according to control programs 12P and 22P stored in storage units 12 and 22 of terminals 10 and 20, respectively. 7 and 8, the processing performed by the own terminal 10 is shown on the left side, and the processing performed by the other terminal 20 is shown on the right side. In the processing shown in FIGS. 7 and 8, the control unit 11 of the terminal 10 instructs the avatar set in the terminal 10 to use the behavior based on the user unique information stored in the unique information DB 12a by the behavior executing unit 13c. This is a process for performing a process (interactive process) and interacting with the user of the other terminal 20 or the avatar.

具体的には、言動実行部13cは、マイク18又は入力部15を介して、他端末20のいずれかのユーザ又は他端末20に設定してあるアバターとの対話の実行要求を受け付けたか否かを判断する(S21)。例えば自端末10のユーザは、対話したい相手の情報(他端末20のユーザ又はアバターを示す情報、他端末20の宛先情報等)と、対話したい内容とをマイク18又は入力部15を介して入力し、対話相手との対話を行うように自端末10のアバターに指示する。具体的には、自端末10のユーザは、「○○さんに△△について確認してきて。」と発話した場合、言動実行部13cは、対話相手として「○○さん」と、対話内容として「△△について」とを抽出し、対話相手との対話を行う指示として受け付ける。なお、対話したい相手が他端末20のアバターである場合、言動実行部13cは、対話相手として「○○さんのアバター」を抽出する。また言動実行部13cは、固有情報DB12aに記憶されたユーザ固有情報に基づいて、自端末10のユーザが対話したい相手及び対話内容を抽出し、抽出できた場合、対話相手との対話を行う指示(対話の実行要求)として受け付ける。 Specifically, whether or not the behavior executing unit 13c has received a request to execute a dialogue with any user of the other terminal 20 or an avatar set in the other terminal 20 via the microphone 18 or the input unit 15. (S21). For example, the user of the own terminal 10 inputs information of the other party with whom the user wants to interact (information indicating the user or avatar of the other terminal 20, destination information of the other terminal 20, etc.) and the content of the conversation via the microphone 18 or the input unit 15. and instructs the avatar of its own terminal 10 to have a dialogue with the dialogue partner. Specifically, when the user of the own terminal 10 utters, "Mr. ○○, please check about △△." "About △△" is extracted and accepted as an instruction to have a dialogue with the dialogue partner. Note that when the partner with whom the user wishes to have a dialogue is the avatar of the other terminal 20, the behavior executing unit 13c extracts "Mr. XX's avatar" as the dialogue partner. Also, the behavior executing unit 13c extracts the partner with whom the user of the terminal 10 wishes to interact and the contents of the conversation based on the user-specific information stored in the specific information DB 12a, and if the user of the terminal 10 can extract the conversation partner, instructs to have a conversation with the conversation partner. Accept as (dialogue execution request).

対話要求を受け付けていないと判断した場合(S21:NO)、言動実行部13cは、対話要求を受け付けるまで待機する。対話要求を受け付けたと判断した場合(S21:YES)、言動実行部13cは、要求された対話相手の宛先情報を宛先情報DB12bから読み出す(S22)。ステップS22において言動実行部13cは、要求された対話相手の情報(例えば氏名、他端末20の所有者名)に対応付けて宛先情報DB12bに記憶してある宛先情報を読み出す。そして言動実行部13cは、読み出した宛先情報に基づいて、要求された対話相手の他端末20に対して対話の実行を要求する(S23)。ステップS23において言動実行部13cは、要求された対話相手が他端末20のユーザであるか、他端末20に設定されたアバターであるかに応じて、他端末20のユーザ又はアバターに対する対話の実行を要求する。また言動実行部13cは、例えばチャットアプリ又はメッセージアプリ等を用いて他端末20との対話(メッセージの送受信)を行う。チャットアプリ又はメッセージアプリは予め記憶部12に記憶してある。 When determining that the dialogue request has not been received (S21: NO), the behavior execution unit 13c waits until the dialogue request is received. If it is determined that the dialogue request has been received (S21: YES), the behavior execution unit 13c reads out the requested destination information of the dialogue partner from the destination information DB 12b (S22). In step S22, the behavior executing unit 13c reads the destination information stored in the destination information DB 12b in association with the requested information of the dialogue partner (for example, the name and the name of the owner of the other terminal 20). Then, the behavior executing unit 13c requests the other terminal 20 of the requested dialogue partner to execute dialogue based on the read destination information (S23). In step S23, the behavior executing unit 13c executes dialogue with the user of the other terminal 20 or the avatar according to whether the requested dialogue partner is the user of the other terminal 20 or the avatar set in the other terminal 20. request. The behavior executing unit 13c also interacts (transmits and receives messages) with the other terminal 20 using, for example, a chat application or a message application. A chat application or a message application is stored in the storage unit 12 in advance.

他端末20の制御部21(言動実行部23c)は、自端末10から対話の実行を要求された場合、要求された対話相手(他端末20のユーザ又はアバター)が対話可能であるか否かを判断する(S24)。ステップS24において言動実行部23cは、要求された対話相手が他端末20のユーザである場合、例えばスピーカ27又は表示部26を介して、対話要求を受け付けたことを通知(出力)し、マイク28又は入力部25を介して、要求された対話の実行が可能であるか否かを受け付ける。例えば言動実行部23cは、表示部26に「○○さんから対話要求がきています」等のメッセージと、対話の実行開始を指示するためのOKボタンと、対話の実行を拒否するためのキャンセルボタンとを表示する。そして言動実行部23cは、入力部25を介してOKボタン又はキャンセルボタンのいずれかに対する操作を受け付け、受け付けた操作に応じて、要求された対話の実行が可能であるか否かを判断する。また言動実行部23cは、スピーカ27にて「○○さんから対話要求がきています。どうしますか」等のメッセージを音声出力し、マイク28を介した音声入力にてユーザからの返答を受け付け、受け付けた返答に応じて、要求された対話の実行が可能であるか否かを判断する。また、要求された対話相手が他端末20のアバターである場合、言動実行部23cは、例えば自端末10以外の端末(他の他端末20)との間で対話中であるか否かに応じて、要求された対話の実行が可能であるか否かを判断する。例えば言動実行部23cは、自端末10以外の端末との間で対話中である場合、要求された対話の実行が可能でないと判断し、自端末10以外の端末との間で対話中でない場合、要求された対話の実行が可能であると判断する。 When the control unit 21 (the speech execution unit 23c) of the other terminal 20 is requested to execute a dialogue from the own terminal 10, the control unit 21 determines whether or not the requested dialogue partner (user or avatar of the other terminal 20) is capable of dialogue. (S24). In step S24, when the requested dialogue partner is the user of the other terminal 20, the behavior executing unit 23c notifies (outputs) that the dialogue request has been received via the speaker 27 or the display unit 26, for example, and the microphone 28 Alternatively, it receives via the input unit 25 whether or not the requested dialogue can be executed. For example, the speech/behavior execution unit 23c displays on the display unit 26 a message such as "There is a dialogue request from Mr. to display. Then, the behavior execution unit 23c receives an operation on either the OK button or the cancel button via the input unit 25, and determines whether or not the requested dialogue can be executed according to the received operation. In addition, the behavior execution unit 23c outputs a message such as "There is a dialogue request from Mr. XX. What do you want to do?" Depending on the received reply, it is determined whether the requested dialogue can be executed. Further, when the requested dialogue partner is the avatar of the other terminal 20, the speech/behavior execution unit 23c, for example, responds to whether or not a dialogue is being performed with a terminal other than the own terminal 10 (another terminal 20). to determine whether execution of the requested interaction is possible. For example, the behavior executing unit 23c determines that the requested dialogue cannot be executed when a dialogue is being performed with a terminal other than the own terminal 10, and when the dialogue is not being executed with a terminal other than the own terminal 10 , determines that the requested interaction can be performed.

要求された対話相手が対話可能でないと判断した場合(S24:NO)、言動実行部23cは、対話可能でないこと(対話不可)を自端末10に通知する(S25)。対話不可の通知を受けた自端末10の言動実行部13cは、所定時間待機し(S26)、ステップS23の処理に戻り、再度、ステップS22で読み出した宛先情報に基づいて、対話相手の他端末20に対して対話の実行を要求する(S23)。 If it is determined that the requested dialogue partner is not capable of dialogue (S24: NO), the speech/behavior execution unit 23c notifies the self-terminal 10 that dialogue is not possible (dialogue is not possible) (S25). The speech execution unit 13c of the own terminal 10, which has received the notification that the dialogue is not possible, waits for a predetermined time (S26), returns to the process of step S23, and again, based on the destination information read out in step S22, determines whether the other terminal of the dialogue partner 20 is requested to execute dialogue (S23).

他端末20の言動実行部23cは、自端末10から要求された対話が可能であると判断した場合(S24:YES)、対話可能である旨を自端末10に通知する(S27)。他端末20から対話可能を通知された場合、自端末10の言動実行部13cは、マイク18又は入力部15を介して要求された対話内容、又はユーザ固有情報から抽出した対話内容に基づいて対話情報を生成する(S28)。ステップS28において言動実行部13cは、対話内容として抽出した情報に基づいて対話情報を生成し、例えば「△△についてはどうなっていますか」のような対話メッセージを生成する。なお、言動実行部13cは、対話処理部13aによって、対話相手(他端末20のユーザ又はアバター)への対話メッセージを生成してもよい。そして言動実行部13cは、生成した対話情報を対話相手の他端末20に送信する(S29)。 When the behavior executing unit 23c of the other terminal 20 determines that the dialogue requested by the terminal 10 is possible (S24: YES), it notifies the terminal 10 that the dialogue is possible (S27). When notified by the other terminal 20 that the interaction is possible, the behavior execution unit 13c of the own terminal 10 interacts based on the content of the dialog requested via the microphone 18 or the input unit 15 or the content of the dialog extracted from the user-specific information. Information is generated (S28). In step S28, the behavior executing unit 13c generates dialogue information based on the information extracted as the dialogue content, and generates a dialogue message such as "What is happening with ??", for example. Note that the speech/behavior execution unit 13c may generate a dialogue message for the dialogue partner (the user of the other terminal 20 or the avatar) by the dialogue processing unit 13a. Then, the behavior execution unit 13c transmits the generated dialogue information to the other terminal 20 of the dialogue partner (S29).

他端末20の言動実行部23cは、自端末10から対話情報を受信した場合、要求されていた対話相手が他端末20のユーザであるか否かを判断する(S30)。対話相手が他端末20のユーザであると判断した場合(S30:YES)、言動実行部23cは、受信した対話情報を出力する(S31)。ステップS31において言動実行部23cは、受信した対話情報(対話メッセージ)をスピーカ27又は表示部26にて出力する。言動実行部23cは、出力した対話情報に対する、他端末20のユーザからの返答情報(返答メッセージ)をマイク28又は入力部25を介して受け付け(S32)、受け付けた返答情報を自端末10に送信する(S33)。 When the dialogue information is received from the own terminal 10, the behavior execution unit 23c of the other terminal 20 determines whether or not the requested dialogue partner is the user of the other terminal 20 (S30). When it is determined that the conversation partner is the user of the other terminal 20 (S30: YES), the behavior executing section 23c outputs the received dialogue information (S31). In step S<b>31 , the behavior execution unit 23 c outputs the received dialogue information (dialogue message) through the speaker 27 or the display unit 26 . The behavior execution unit 23c receives response information (response message) from the user of the other terminal 20 to the output dialogue information via the microphone 28 or the input unit 25 (S32), and transmits the received response information to the own terminal 10. (S33).

対話相手が他端末20のユーザでないと判断した場合(S30:NO)、即ち、対話相手が他端末20のアバターである場合、他端末20の言動実行部23cは、固有情報DB22aに記憶してあるユーザ固有情報に基づいて、自端末10から受信した対話情報に対する返答情報(返答メッセージ)を生成する(S34)。ステップS34において言動実行部23cは、自端末10から受信した対話情報が「△△についてはどうなっていますか」である場合、固有情報DB22aの記憶内容から「△△」に関する情報を検索し、検索結果を用いて、「□□となっています」のような返答メッセージを生成する。言動実行部23cは、生成した返答情報を自端末10に送信する(S33)。 When it is determined that the dialogue partner is not the user of the other terminal 20 (S30: NO), that is, when the dialogue partner is the avatar of the other terminal 20, the behavior execution unit 23c of the other terminal 20 stores the information in the unique information DB 22a. Based on certain user-specific information, response information (response message) to the dialogue information received from the own terminal 10 is generated (S34). In step S34, if the dialogue information received from the terminal 10 is "What is happening with ??", the speech execution unit 23c searches for information on '? Use the search results to generate a response message such as "It is □□". The speech execution unit 23c transmits the generated response information to its own terminal 10 (S33).

自端末10の言動実行部13cは、他端末20から受信した返答情報を履歴情報として言動履歴DB12cに記憶する(S35)。なお、言動実行部13cは、ステップS29で対話情報を他端末20に送信した場合にも、送信した対話情報を履歴情報として言動履歴DB12cに記憶する。これにより、他端末20との間で送受信されたメッセージ(対話内容)を言動履歴DB12cに蓄積できる。言動実行部13cは、他端末20との対話が終了したか否かを判断しており(S36)、終了していないと判断した場合(S36:NO)、ステップS28の処理に戻り、他端末20に送信すべき対話情報を更に生成する(S28)。自端末10及び他端末20の言動実行部13c,23cは、ステップS28~S35の処理を繰り返すことによって対話を行い、対話の結果(送受信された対話情報)が言動履歴DB12cに蓄積される。自端末10の言動実行部13cは、他端末20との対話が終了したと判断した場合(S36:YES)、他端末20との対話を終了する。 The behavior executing unit 13c of the own terminal 10 stores the response information received from the other terminal 20 as history information in the behavior history DB 12c (S35). Note that even when the dialogue information is transmitted to the other terminal 20 in step S29, the behavior executing unit 13c stores the transmitted dialogue information as history information in the behavior history DB 12c. As a result, messages (dialogue contents) transmitted and received with the other terminal 20 can be stored in the behavior history DB 12c. The behavior executing unit 13c determines whether or not the dialogue with the other terminal 20 has ended (S36), and if it determines that the dialogue has not ended (S36: NO), returns to the process of step S28, and returns to the process of step S28. 20 is further generated (S28). The behavior execution units 13c and 23c of the own terminal 10 and the other terminal 20 repeat the processes of steps S28 to S35 to have a dialogue, and the results of the dialogue (transmitted and received dialogue information) are accumulated in the behavior history DB 12c. When the behavior executing unit 13c of the own terminal 10 determines that the dialogue with the other terminal 20 has ended (S36: YES), the dialogue with the other terminal 20 ends.

上述した処理により、自端末10のユーザは、自端末10に設定してある自身のアバターによって、他端末20のユーザ又はアバターと対話することができる。よって、自端末10のユーザが直接他端末20のユーザと対話し辛い場合に、自身のアバターを介して他端末20のユーザと対話することができる。例えば自端末10のユーザが他端末20のユーザと喧嘩した場合に、自端末10のユーザは自身のアバターによって他端末20のユーザに謝罪して仲直りすることもできる。また、自端末10のユーザと他端末20のユーザとが対話する時間を確保できない場合であっても、例えばアバター同士で対話を行うことにより、対話時間を確保することができる。なお、言動実行部13c,23cは、各端末10,20のアバターに、固有情報DB12a,22aに記憶してあるユーザ固有情報に基づく言動処理(対話処理)を行わせるので、各端末10,20のユーザが行う可能性の高い対話処理を実現できる。 Through the processing described above, the user of the own terminal 10 can interact with the user of the other terminal 20 or the avatar using his own avatar set in the own terminal 10 . Therefore, when the user of the own terminal 10 finds it difficult to interact directly with the user of the other terminal 20, it is possible to interact with the user of the other terminal 20 via its own avatar. For example, when the user of the own terminal 10 quarrels with the user of the other terminal 20, the user of the own terminal 10 can apologize to the user of the other terminal 20 using his/her own avatar and reconcile. Further, even if the user of the own terminal 10 and the user of the other terminal 20 cannot secure time to interact with each other, it is possible to secure dialogue time by having avatars interact with each other, for example. Note that the behavior execution units 13c and 23c cause the avatars of the terminals 10 and 20 to perform behavior processing (dialogue processing) based on the user unique information stored in the unique information DBs 12a and 22a. It is possible to realize interactive processing that is highly likely to be performed by users of

他端末20のユーザは例えば医師、看護師、作業療法士、栄養士等の専門家であってもよく、この場合、自端末10のユーザは、自身のアバターによって体調、病気、栄養管理等について専門家に相談することができる。また、他端末20のアバターは、これらの専門家のアバター(専門家アバター)であってもよい。例えば自端末10の言動実行部13cは、マイク18又は入力部15を介して自端末10のユーザから、所定の専門家又は専門家のアバターに対する相談(対話)の実行要求を受け付ける。そして、言動実行部13cは、受け付けた専門家又は専門家のアバターとの対話を、固有情報DB12aに蓄積したユーザ固有情報に基づいて行うことにより、専門家又は専門家のアバターに相談することができる。このように専門家又は専門家のアバターに相談した内容(対話内容)も対話履歴として言動履歴DB12cに記憶される。そして、自端末10のユーザからの要求に応じて、履歴出力部13dが対話履歴に係る対話内容を出力することにより、自端末10のユーザは相談結果を知ることができる。このような構成とした場合、自端末10のユーザが自身では聞き辛い内容の相談であっても、自身の代わりにアバターが専門家に相談して専門家からの回答を取得するので、自端末10のユーザは気軽に相談できる。また、専門家のアバターに相談する場合、忙しい専門家の代わりに専門家のアバターによって相談内容に対する回答が得られる。 The user of the other terminal 20 may be a specialist such as a doctor, a nurse, an occupational therapist, or a nutritionist. You can consult the house. Also, the avatars of the other terminals 20 may be avatars of these experts (expert avatars). For example, the speech/behavior execution unit 13c of the terminal 10 receives a request for consultation (dialogue) with a predetermined expert or an avatar of the expert from the user of the terminal 10 via the microphone 18 or the input unit 15. FIG. Then, the behavior executing unit 13c can consult with the expert or the expert's avatar by conducting dialogue with the accepted expert or the expert's avatar based on the user-specific information accumulated in the unique information DB 12a. can. In this way, the content (conversation content) consulted with the expert or the expert's avatar is also stored in the behavior history DB 12c as a conversation history. In response to a request from the user of terminal 10, history output unit 13d outputs the content of the dialogue related to the dialogue history, so that the user of terminal 10 can know the result of the consultation. With such a configuration, even if the user of his/her own terminal 10 asks for a consultation that is difficult for him/herself to hear, the avatar consults with an expert on behalf of the user and obtains an answer from the expert. 10 users can feel free to consult. Also, when consulting with an avatar of an expert, an answer to the content of the consultation can be obtained from the avatar of the expert instead of the busy expert.

図9及び図10は、自端末10及び他端末20による言動処理の手順例を示すフローチャート、図11は画面例を示す模式図である。図9及び図10では左側に自端末10が行う処理を、右側に他端末20が行う処理をそれぞれ示す。図9及び図10に示す処理は、自端末10のユーザが、自端末10を用いて他端末20のユーザ又はアバターとの間で対話を行う際の処理である。図9及び図10に示す処理において、図7及び図8に示す処理と同様の処理については詳細な説明を省略する。 9 and 10 are flowcharts showing an example of a procedure of behavior processing by the own terminal 10 and the other terminal 20, and FIG. 11 is a schematic diagram showing an example of a screen. 9 and 10, the processing performed by the own terminal 10 is shown on the left side, and the processing performed by the other terminal 20 is shown on the right side. The processing shown in FIGS. 9 and 10 is processing when the user of the own terminal 10 uses the own terminal 10 to interact with the user of the other terminal 20 or the avatar. In the processing shown in FIGS. 9 and 10, detailed description of the processing similar to the processing shown in FIGS. 7 and 8 will be omitted.

自端末10の言動実行部13cは、マイク18又は入力部15を介して、他端末20のいずれかのユーザ又はアバターとの対話の実行要求を受け付けたか否かを判断する(S41)。例えば自端末10のユーザは、対話したい相手の情報(他端末20のユーザ又はアバターを示す情報、他端末20の宛先情報等)をマイク18又は入力部15を介して入力し、自身による対話相手との対話の実行を指示する。具体的には、自端末10のユーザは、「○○さんと話したい」と発話した場合、言動実行部13cは、対話相手として「○○さん」を抽出し、対話相手との対話の実行指示として受け付ける。なお、対話したい相手が他端末20のアバターである場合、言動実行部13cは、対話相手として「○○さんのアバター」を抽出する。 The behavior executing unit 13c of the own terminal 10 determines whether or not a request to execute dialogue with any user or avatar of the other terminal 20 is received via the microphone 18 or the input unit 15 (S41). For example, the user of the own terminal 10 inputs information of the other party with whom he or she wants to interact (information indicating the user or avatar of the other terminal 20, destination information of the other terminal 20, etc.) via the microphone 18 or the input unit 15, and Instructs the execution of a dialogue with Specifically, when the user of the terminal 10 utters "I want to talk to Mr. ○○", the behavior execution unit 13c extracts "Mr. ○○" as a dialogue partner, and executes a dialogue with the dialogue partner. Take it as an instruction. Note that when the partner with whom the user desires to have a dialogue is the avatar of the other terminal 20, the behavior executing unit 13c extracts "Mr. XX's avatar" as the dialogue partner.

対話要求を受け付けていないと判断した場合(S41:NO)、言動実行部13cは対話要求を受け付けるまで待機する。対話要求を受け付けたと判断した場合(S41:YES)、言動実行部13cは、要求された対話相手の宛先情報を宛先情報DB12bから読み出す(S42)。そして言動実行部13cは、読み出した宛先情報に基づいて、要求された対話相手の他端末20に対して対話の実行を要求する(S43)。なお、言動実行部13cは、要求された対話相手が他端末20のユーザであるかアバターであるかに応じて、他端末20のユーザ又はアバターに対する対話の実行を要求する。 If it is determined that the dialogue request has not been received (S41: NO), the behavior execution unit 13c waits until the dialogue request is received. When determining that the dialogue request has been received (S41: YES), the behavior execution unit 13c reads out the requested destination information of the dialogue partner from the destination information DB 12b (S42). Then, the behavior executing unit 13c requests the other terminal 20 of the requested dialogue partner to execute dialogue based on the read destination information (S43). Note that the speech/behavior executing unit 13c requests execution of a dialogue with the user of the other terminal 20 or the avatar depending on whether the requested dialogue partner is the user of the other terminal 20 or the avatar.

他端末20の言動実行部23cは、自端末10から対話の実行を要求された場合、要求された対話相手(他端末20のユーザ又はアバター)が対話可能であるか否かを判断する(S44)。要求された対話相手が対話可能でないと判断した場合(S44:NO)、言動実行部23cは、対話可能でないこと(対話不可)を自端末10に通知する(S45)。他端末20から対話不可を通知された場合、自端末10の言動実行部13cは、他端末20のユーザ又はアバターが対話不可であることを示すメッセージを表示部16に表示するか、又はスピーカ17から音声出力することにより、自端末10のユーザに通知し(S46)、処理を終了する。 When receiving a dialogue execution request from its own terminal 10, the behavior executing unit 23c of the other terminal 20 determines whether or not the requested dialogue partner (the user or avatar of the other terminal 20) is capable of dialogue (S44). ). If it is determined that the requested dialogue partner is not capable of dialogue (S44: NO), the speech/behavior execution unit 23c notifies its own terminal 10 that the dialogue is not possible (dialogue not possible) (S45). When notified by the other terminal 20 that the interaction is not possible, the speech/behavior execution unit 13c of the own terminal 10 displays a message on the display unit 16 indicating that the interaction with the user or the avatar of the other terminal 20 is not possible, or displays the message on the speaker 17. , the user of the terminal 10 is notified (S46), and the process ends.

他端末20の言動実行部23cは、自端末10から要求された対話が可能であると判断した場合(S44:YES)、対話可能である旨を自端末10が通知する(S47)。他端末20から対話可能を通知された場合、自端末10の言動実行部13cは、他端末20のユーザ又はアバターが対話可能であることを示すメッセージを表示部16に表示するか、又はスピーカ17から音声出力することにより、自端末10のユーザに通知する(S48)。なお、ユーザ端末10,20がカメラを有し、カメラにて撮影したユーザの撮影画像をユーザ端末10,20間で送受信するテレビ電話を行えるように構成されている場合、自端末10の言動実行部13cは、図11Aに示すような画面を表示部16に表示し、他端末20のユーザとのテレビ電話を開始してもよい。なお、図11Aは他端末20のユーザの撮影画像を表示した例を示しており、自端末10のユーザは、図11Aに示すような画面を介して他端末20のユーザと対話することができる。また、対話相手が他端末20のアバターである場合、他端末20の言動実行部23cは、他端末20に設定してあるアバターの画像を自端末10へ送信し、自端末10の言動実行部13cは、図11Bに示すような画面を表示部16に表示する。図11Bは他端末20のアバターの画像を表示した例を示しており、自端末10のユーザは、図11Bに示すような画面を介して他端末20のアバターと対話することができる。 When the behavior executing unit 23c of the other terminal 20 determines that the dialogue requested by the terminal 10 is possible (S44: YES), the terminal 10 notifies that the dialogue is possible (S47). When notified by the other terminal 20 that it is possible to interact, the behavior executing unit 13c of the own terminal 10 displays a message on the display unit 16 or displays a message indicating that the user or the avatar of the other terminal 20 can interact. The user of the own terminal 10 is notified by outputting voice from the terminal 10 (S48). Note that if the user terminals 10 and 20 have a camera and are configured to be able to make a videophone call between the user terminals 10 and 20 by transmitting and receiving images of the user captured by the camera, the user terminals 10 and 20 can execute their own words and actions. The unit 13c may display a screen as shown in FIG. 11A on the display unit 16 and start a videophone call with the user of the other terminal 20. Note that FIG. 11A shows an example of displaying a photographed image of the user of the other terminal 20, and the user of the own terminal 10 can interact with the user of the other terminal 20 via the screen as shown in FIG. 11A. . Further, when the conversation partner is the avatar of the other terminal 20, the behavior executing unit 23c of the other terminal 20 transmits the image of the avatar set in the other terminal 20 to the terminal 10, and the behavior executing unit of the terminal 10 13c displays a screen on the display unit 16 as shown in FIG. 11B. FIG. 11B shows an example of displaying the image of the avatar of the other terminal 20, and the user of the own terminal 10 can interact with the avatar of the other terminal 20 through the screen as shown in FIG. 11B.

言動実行部13cは、マイク18又は入力部15を介して自端末10のユーザから対話相手への対話情報を受け付け(S49)、受け付けた対話情報を対話相手の他端末20に送信する(S50)。他端末20の言動実行部23cは、自端末10から対話情報を受信した場合、要求されていた対話相手が他端末20のユーザであるか否かを判断する(S51)。対話相手が他端末20のユーザであると判断した場合(S51:YES)、言動実行部23cは、受信した対話情報(対話メッセージ)をスピーカ27又は表示部26にて出力する(S52)。そして言動実行部23cは、出力した対話情報に対する、他端末20のユーザからの返答情報(返答メッセージ)をマイク28又は入力部25を介して受け付け(S53)、受け付けた返答情報を自端末10に送信する(S54)。 The speech execution unit 13c receives dialogue information from the user of the own terminal 10 to the dialogue partner via the microphone 18 or the input unit 15 (S49), and transmits the received dialogue information to the other terminal 20 of the dialogue partner (S50). . When the dialogue information is received from the own terminal 10, the behavior execution unit 23c of the other terminal 20 determines whether or not the requested dialogue partner is the user of the other terminal 20 (S51). When determining that the dialogue partner is the user of the other terminal 20 (S51: YES), the speech/behavior execution unit 23c outputs the received dialogue information (dialogue message) through the speaker 27 or the display unit 26 (S52). Then, the behavior execution unit 23c receives response information (response message) from the user of the other terminal 20 to the output dialogue information via the microphone 28 or the input unit 25 (S53), and transmits the received response information to the own terminal 10. Send (S54).

対話相手が他端末20のユーザでないと判断した場合(S51:NO)、即ち、対話相手が他端末20のアバターである場合、他端末20の言動実行部23cは、固有情報DB22aに記憶してあるユーザ固有情報に基づいて、自端末10から受信した対話情報に対する返答情報(返答メッセージ)を生成する(S55)。そして言動実行部23cは、生成した返答情報を自端末10に送信する(S54)。自端末10の言動実行部13cは、他端末20から受信した返答情報(返答メッセージ)をスピーカ17又は表示部16にて出力し(S56)、更に履歴情報として言動履歴DB12cに記憶する(S57)。なお、言動実行部13cは、ステップS50で対話情報を他端末20に送信した場合にも、送信した対話情報を履歴情報として言動履歴DB12cに記憶しておく。これにより、他端末20との間で送受信されたメッセージ(対話内容)を言動履歴DB12cに蓄積できる。 When it is determined that the dialogue partner is not the user of the other terminal 20 (S51: NO), that is, when the dialogue partner is the avatar of the other terminal 20, the behavior execution unit 23c of the other terminal 20 stores the Based on certain user-specific information, reply information (reply message) to the dialogue information received from the own terminal 10 is generated (S55). Then, the speech execution unit 23c transmits the generated response information to its own terminal 10 (S54). The behavior execution unit 13c of the own terminal 10 outputs the response information (response message) received from the other terminal 20 through the speaker 17 or the display unit 16 (S56), and further stores it in the behavior history DB 12c as history information (S57). . Note that even when the dialogue information is transmitted to the other terminal 20 in step S50, the behavior executing unit 13c stores the transmitted dialogue information as history information in the behavior history DB 12c. As a result, messages (dialogue contents) transmitted and received with the other terminal 20 can be stored in the behavior history DB 12c.

自端末10の言動実行部13cは、他端末20との対話が終了したか否かを判断しており(S58)、終了していないと判断した場合(S58:NO)、ステップS49の処理に戻り、他端末20に送信すべき対話情報を、マイク18又は入力部15を介して自端末10のユーザから受け付ける(S49)。自端末10及び他端末20の言動実行部13c,23cは、ステップS49~S57の処理を繰り返すことによって対話を行い、対話の結果(送受信された対話情報)が言動履歴DB12cに蓄積される。自端末10の言動実行部13cは、他端末20との対話が終了したと判断した場合(S58:YES)、他端末20との対話を終了する。 The speech execution unit 13c of the own terminal 10 determines whether or not the dialogue with the other terminal 20 has ended (S58). Returning, the dialogue information to be transmitted to the other terminal 20 is received from the user of the own terminal 10 via the microphone 18 or the input unit 15 (S49). The behavior executing units 13c and 23c of the own terminal 10 and the other terminal 20 repeat the processes of steps S49 to S57 to have a dialogue, and the results of the dialogue (transmitted and received dialogue information) are accumulated in the behavior history DB 12c. When the behavior executing unit 13c of the own terminal 10 determines that the dialogue with the other terminal 20 has ended (S58: YES), the dialogue with the other terminal 20 ends.

上述した処理により、自端末10のユーザは、自端末10を用いて他端末20のユーザ又はアバターと対話することができる。よって、自端末10のユーザは端末10,20を介して他端末20のユーザと対話することができ、互いの撮影画像を送受信した場合にはテレビ電話が可能となる。また自端末10のユーザが直接他端末20のユーザと対話し辛い場合又は他端末20のユーザが忙しい場合に、他端末20のアバターと対話することにより、他端末20のユーザとの対話を擬似的に実現することができる。なお、他端末20のユーザは例えば医師、看護師、作業療法士、栄養士等の専門家であってもよく、この場合、自端末10のユーザは、体調、病気、栄養管理等について専門家に相談することができる。また、他端末20のアバターは、これらの専門家のアバター(専門家アバター)であってもよい。この場合、自端末10のユーザは、忙しい専門家の代わりに専門家のアバターによって相談内容に対する回答が得られるので、気軽に相談できる。 Through the processing described above, the user of the own terminal 10 can interact with the user of the other terminal 20 or the avatar using the own terminal 10 . Therefore, the user of the own terminal 10 can interact with the user of the other terminal 20 via the terminals 10 and 20, and videophone communication becomes possible when mutual photographed images are transmitted and received. Also, when the user of the own terminal 10 finds it difficult to interact directly with the user of the other terminal 20 or when the user of the other terminal 20 is busy, by interacting with the avatar of the other terminal 20, the interaction with the user of the other terminal 20 can be simulated. can be practically realized. Note that the user of the other terminal 20 may be a specialist such as a doctor, a nurse, an occupational therapist, or a nutritionist. can consult. Also, the avatars of the other terminals 20 may be avatars of these experts (expert avatars). In this case, the user of his/her own terminal 10 can obtain an answer to the content of the consultation from the avatar of the expert instead of the busy expert, so that the user can feel free to consult.

図12は、自端末10による言動処理の手順例を示すフローチャートである。図12に示す処理は、自端末10の制御部11が、言動実行部13cによって自端末10のアバターに、固有情報DB12aに記憶してあるユーザ固有情報に基づいて擬似的な外出行為を行わせる処理である。言動実行部13cは、固有情報DB12aに蓄積してある情報に基づいて、自端末10のユーザが行きたいと思っている場所があるか否かを判断する(S61)。また言動実行部13cは、マイク18又は入力部15を介して自端末10のユーザから行きたい場所の情報を受け付けたか否かに応じて、自端末10のユーザが行きたいと思っている場所があるか否かを判断してもよい。 FIG. 12 is a flow chart showing an example of a procedure of behavior processing by the own terminal 10. As shown in FIG. In the processing shown in FIG. 12, the control unit 11 of the own terminal 10 causes the avatar of the own terminal 10 to perform a pseudo-outing action based on the user unique information stored in the unique information DB 12a by the behavior execution unit 13c. processing. The behavior execution unit 13c determines whether there is a place that the user of the terminal 10 wants to go, based on the information stored in the unique information DB 12a (S61). In addition, the speech execution unit 13c determines the location that the user of the terminal 10 wants to go depending on whether or not the information on the location that the user of the terminal 10 wants to go is received from the user of the terminal 10 via the microphone 18 or the input unit 15. It may be determined whether there is

自端末10のユーザが行きたい場所があると判断した場合(S61:YES)、言動実行部13cは、ネットワークN上で公開されている各種の情報から、行きたい場所に関する情報を検索する(S62)。そして言動実行部13cは、検索結果から、自端末10のユーザが行きたい場所においてカメラで撮影されてネットワークN上で公開されている撮影画像をネットワークN経由で収集する(S63)。例えばユーザが富士山に登りたいと思っている場合、言動実行部13cは、富士山の近傍に設置されているカメラによって撮影された富士山の撮影画像、富士山の登山客が撮影した画像等を収集する。これにより、言動実行部13cは、自端末10のアバターを介して、自端末10のユーザが行きたい場所に行って撮影画像を取得する外出行為を擬似的に実行することができる。言動実行部13cは、収集した撮影画像を履歴情報として言動履歴DB12cに記憶する(S64)。なお、収集する情報は、撮影画像に限定されず、当該場所に関する情報であればどのような情報でもよい。また言動実行部13cは、収集した複数の情報を、例えばユーザ固有情報に基づいてユーザの好みに適した情報に編集した後に言動履歴DB12cに記憶してもよい。 If the user of the terminal 10 determines that there is a place he/she wants to go to (S61: YES), the behavior execution unit 13c searches for information on the place he/she wants to go from various information published on the network N (S62). ). Then, from the search results, the speech execution unit 13c collects, via the network N, images taken by the camera at the place the user of the terminal 10 wants to go and published on the network N (S63). For example, when the user wants to climb Mt. Fuji, the behavior execution unit 13c collects images of Mt. Fuji taken by a camera installed near Mt. Fuji, images taken by climbers of Mt. Fuji, and the like. Thereby, the behavior execution part 13c can go to the place where the user of the own terminal 10 wants to go and acquire a photographed image via the avatar of the own terminal 10, thereby performing a simulated going out action. The behavior executing unit 13c stores the captured images as history information in the behavior history DB 12c (S64). Information to be collected is not limited to captured images, and may be any information as long as it is information about the location. Further, the behavior executing unit 13c may store the collected information in the behavior history DB 12c after editing the collected information into information suitable for the user's preference, for example, based on user-specific information.

自端末10のユーザが行きたい場所がないと判断した場合(S61:NO)、言動実行部13cは、固有情報DB12aに蓄積してある情報に基づいて、自端末10のユーザがやりたいと思っていることがあるか否かを判断する(S65)。自端末10のユーザがやりたいことがあると判断した場合(S65:YES)、言動実行部13cは、ネットワークN上で公開されている各種の情報から、やりたいことに関する情報を検索する(S66)。そして言動実行部13cは、検索結果から、自端末10のユーザがやりたいことに関してネットワークN上で公開されている撮影画像をネットワークN経由で収集する(S67)。例えばユーザがスカイダイビングをしたいと思っている場合、言動実行部13cは、スカイダイビングをしている人を撮影した画像、スカイダイビング中に撮影された画像等を収集する。これにより、言動実行部13cは、自端末10のアバターを介して、自端末10のユーザがやりたいことを擬似的に実行することができる。言動実行部13cは、収集した撮影画像を履歴情報として言動履歴DB12cに記憶する(S68)。なお、収集する情報は、撮影画像に限定されず、当該やりたいことに関する情報であればどのような情報でもよい。また言動実行部13cは、収集した複数の情報を、例えばユーザ固有情報に基づいてユーザの好みに適した情報に編集した後に言動履歴DB12cに記憶してもよい。 If it is determined that there is no place that the user of the terminal 10 wants to go to (S61: NO), the behavior execution unit 13c determines whether the user of the terminal 10 wants to go, based on the information accumulated in the unique information DB 12a. It is determined whether or not there is a case where there is a person (S65). If it is determined that the user of the terminal 10 has something to do (S65: YES), the behavior executing section 13c searches various information published on the network N for information on what the user wants to do (S66). Then, the behavior executing unit 13c collects, from the search results, captured images published on the network N regarding what the user of the terminal 10 wants to do via the network N (S67). For example, when the user wants to go skydiving, the behavior executing unit 13c collects an image of a skydiving person, an image taken during skydiving, and the like. Thereby, the behavior executing unit 13c can simulate what the user of the terminal 10 wants to do via the avatar of the terminal 10. FIG. The behavior executing unit 13c stores the captured images as history information in the behavior history DB 12c (S68). Information to be collected is not limited to captured images, and may be any information as long as it is information about what the user wants to do. Further, the behavior executing unit 13c may store the collected information in the behavior history DB 12c after editing the collected information into information suitable for the user's preference, for example, based on user-specific information.

ユーザがやりたいことがないと判断した場合(S65:NO)、言動実行部13cは、ステップS61の処理に戻り、行きたい場所又はやりたいことがあると判断する都度、上述した処理によって各種の情報を収集し、擬似的な行為の履歴情報を言動履歴DB12cに蓄積できる。上述した処理により、自端末10は、固有情報DB12aに蓄積されたユーザ固有の情報に基づいて、ユーザが行きたい場所又はやりたいことを適宜抽出し、ユーザに代わって行動し、行動した結果得られた情報を履歴情報として蓄積できる。よって、自端末10のユーザは、行きたい場所に行く時間又はやりたいことをやる時間がない場合であっても、自端末10のアバターによって、行きたい場所に擬似的に行き、また、やりたいことを擬似的に行うことができる。なお、言動実行部13cは、自端末10のアバターを介して、固有情報DB12aに記憶してあるユーザ固有情報に基づく言動処理(行動、外出)を行うので、自端末10のユーザが行う可能性の高い行動を実現できる。 When the user determines that there is nothing that the user wants to do (S65: NO), the behavior execution unit 13c returns to the process of step S61, and each time it determines that there is a place that the user wants to go or something that the user wants to do, various information is obtained by the above-described process. It is possible to collect and accumulate history information of pseudo actions in the behavior history DB 12c. Through the above-described processing, the own terminal 10 appropriately extracts the place the user wants to go or what the user wants to do based on the information specific to the user accumulated in the specific information DB 12a, acts on behalf of the user, and obtains the result of the action. This information can be accumulated as history information. Therefore, even if the user of his/her own terminal 10 does not have time to go to the place he/she wants to go or do what he/she wants to do, the avatar of his/her own terminal 10 allows the user to go to the place he/she wants to go and to do what he or she wants to do. It can be simulated. Note that the behavior execution unit 13c performs behavior processing (behavior, going out) based on the user-specific information stored in the unique information DB 12a via the avatar of the terminal 10. high performance can be achieved.

図13は、自端末10による言動履歴の再生処理の手順例を示すフローチャート、図14は画面例を示す模式図である。図7~図10に示す対話処理及び図12に示す行動処理によって言動履歴DB12cに言動履歴(履歴情報)を蓄積した自端末10において、制御部11は、履歴出力部13dによって、蓄積した履歴情報を表示部16又はスピーカ17にて再生する。具体的には、履歴出力部13dは、マイク18又は入力部15を介して、言動履歴DB12cに蓄積した言動履歴(履歴情報)に対する再生要求を受け付けたか否かを判断する(S71)。自端末10のユーザは、いずれかの言動履歴を再生させたい場合、マイク18又は入力部15を介して言動履歴の再生要求を入力する。 FIG. 13 is a flow chart showing an example of the procedure of reproduction processing of the behavior history by the own terminal 10, and FIG. 14 is a schematic diagram showing an example of a screen. 7 to 10 and the behavior processing shown in FIG. is reproduced on the display unit 16 or the speaker 17 . Specifically, the history output unit 13d determines whether or not a reproduction request for the behavior history (history information) accumulated in the behavior history DB 12c has been received via the microphone 18 or the input unit 15 (S71). The user of his/her own terminal 10 inputs a request for reproduction of the behavior history via the microphone 18 or the input unit 15 when he/she wishes to reproduce any behavior history.

履歴出力部13dは、言動履歴に対する再生要求を受け付けていないと判断した場合(S71:NO)、再生要求を受け付けるまで待機する。履歴出力部13dは、再生要求を受け付けたと判断した場合(S71:YES)、言動履歴DB12cに蓄積した言動履歴(履歴情報)に基づいて、図14に示すように、それぞれの言動履歴に関する情報を表示する履歴画面を生成する(S72)。履歴出力部13dは、生成した履歴画面を表示部16に表示する(S73)。図14に示す履歴画面は、左上に自端末10のアバターの画像を表示し、自端末10のアバターが今日行った活動(言動)について、言動履歴DB12cに蓄積した言動履歴のそれぞれに基づいて、履歴情報のサムネイル画像及び言動内容を示す情報を表示する。履歴情報のサムネイル画像は、履歴情報に含まれる言動データが画像データである場合、この画像データに基づいて生成される。なお、履歴情報に含まれる言動データが画像データでない場合、例えば言動データが音声データのみである場合、サムネイル画像の代わりに「音声のみ」のメッセージを表示してもよい。履歴画面に表示される言動内容を示す情報は、履歴情報に含まれる言動内容、相手情報、場所情報等に基づいて生成される。また履歴画面は、自端末10のアバターが過去に行った活動(言動)における言動履歴(履歴情報)を表示させるための「過去の活動履歴」ボタンを表示している。よって、履歴画面において「過去の活動履歴」ボタンが入力部15を介して操作された場合、履歴出力部13dは、言動履歴DB12cに蓄積した過去の言動履歴に関する情報を履歴画面に表示する。 If the history output unit 13d determines that the reproduction request for the behavior history has not been received (S71: NO), it waits until the reproduction request is received. When the history output unit 13d determines that the reproduction request has been accepted (S71: YES), based on the behavior history (history information) accumulated in the behavior history DB 12c, as shown in FIG. A history screen to be displayed is generated (S72). The history output unit 13d displays the generated history screen on the display unit 16 (S73). The history screen shown in FIG. 14 displays an image of the avatar of the terminal 10 on the upper left, and the activities (behavior) performed by the avatar of the terminal 10 today are based on the behavior histories accumulated in the behavior history DB 12c. Display a thumbnail image of the history information and information indicating the contents of the behavior. If the behavior data included in the history information is image data, the thumbnail image of the history information is generated based on this image data. If the behavior data included in the history information is not image data, for example, if the behavior data is only audio data, a message "sound only" may be displayed instead of the thumbnail image. The information indicating the content of behavior displayed on the history screen is generated based on the content of behavior, partner information, location information, etc. included in the history information. The history screen also displays a "past activity history" button for displaying the behavior history (history information) of the past activities (behavior) performed by the avatar of the terminal 10. FIG. Therefore, when the "past activity history" button is operated via the input unit 15 on the history screen, the history output unit 13d displays information on the past behavior history accumulated in the behavior history DB 12c on the history screen.

履歴画面は、言動履歴のいずれかを再生対象に選択できるように構成されており、選択された言動履歴の再生を要求するための再生ボタンと、再生処理を終了するためのキャンセルボタンとを表示している。履歴出力部13dは、履歴画面において入力部15を介して、いずれかの言動履歴が選択されて再生ボタンが操作されたか否かに応じて、選択された履歴情報に対する再生要求(出力要求)を受け付けたか否かを判断する(S74)。再生要求を受け付けていないと判断した場合(S74:NO)、履歴出力部13dは、再生要求を受け付けるまで待機する。再生要求を受け付けたと判断した場合(S74:YES)、履歴出力部13dは、選択された履歴情報を言動履歴DB12cから読み出し(S75)、読み出した履歴情報を表示部16又はスピーカ17にて出力する(S76)。例えば対話処理の履歴情報に音声データの対話データ(対話音声)が含まれる場合、音声データがスピーカ17から出力され、テキストデータの対話データが含まれる場合、テキストデータが表示部16に表示される。これにより、自端末10のアバターが他端末20のユーザ又はアバターとの間で擬似的に行った対話処理を再現することができる。また、例えば外出処理の履歴情報に画像データ(撮影画像)が含まれる場合、画像データが表示部16に表示され、自端末10のアバターが擬似的に行った外出処理を再現することができる。 The history screen is configured so that one of the speech and action histories can be selected for playback, and displays a play button for requesting playback of the selected speech and action history and a cancel button for terminating the playback process. are doing. The history output unit 13d issues a reproduction request (output request) for the selected history information via the input unit 15 on the history screen according to whether or not any of the behavior history is selected and the reproduction button is operated. It is determined whether or not it has been accepted (S74). When determining that the reproduction request has not been received (S74: NO), the history output unit 13d waits until the reproduction request is received. When determining that the reproduction request has been received (S74: YES), the history output unit 13d reads the selected history information from the behavior history DB 12c (S75), and outputs the read history information through the display unit 16 or the speaker 17. (S76). For example, when dialogue data (dialogue voice) of voice data is included in the history information of dialogue processing, the voice data is output from the speaker 17, and when dialogue data of text data is included, the text data is displayed on the display unit 16. . As a result, it is possible to reproduce simulated interactive processing between the avatar of the terminal 10 and the user or avatar of the other terminal 20 . Further, for example, when image data (photographed image) is included in the history information of going out processing, the image data is displayed on the display unit 16, and the going out processing performed by the avatar of the own terminal 10 can be reproduced in a pseudo manner.

上述した処理により、本実施形態では、自端末10のユーザに代わって自端末10のアバターが、他端末20のユーザ又はアバターと対話を実行することができる。また、自端末10のユーザが行きたい場所に擬似的に出かけ、また、自端末10のユーザがやりたいことを擬似的に実行し、実行した結果を示す履歴情報を自端末10のユーザに提供することができる。よって、自端末10のユーザは、自端末10のアバターから提供された履歴情報を再生することによって、アバターが他端末20のユーザ又はアバターと対話した内容を確認することができる。また、自端末10のユーザは、自端末10のアバターから提供された履歴情報を再生することによって、アバターが擬似的に行った行動を辿ることができる。よって、自端末10のユーザは、アバターから提供された履歴情報に基づいて、実際に行ってみたい場所又はやってみたいことを選択することができ、実際の行動に移すことができる。 According to the process described above, in the present embodiment, the avatar of the terminal 10 can interact with the user of the other terminal 20 or the avatar instead of the user of the terminal 10 . In addition, the user of the terminal 10 simulates going to a place that the user of the terminal 10 wants to go to, executes what the user of the terminal 10 wants to do, and provides the user of the terminal 10 with history information indicating the execution result. be able to. Therefore, by reproducing the history information provided by the avatar of the own terminal 10, the user of the own terminal 10 can confirm the contents of the conversation between the avatar and the user of the other terminal 20 or the avatar. In addition, the user of his/her own terminal 10 can trace the simulated behavior of the avatar by reproducing the history information provided by the avatar of his/her own terminal 10 . Therefore, based on the history information provided by the avatar, the user of his/her own terminal 10 can select a place he/she actually wants to go or what he/she wants to do, and can move to actual action.

本実施形態では、ユーザ端末10,20の対話処理部13a,23aは、ユーザ端末10,20のユーザと対話することができ、ユーザは、自身のユーザ端末10,20(ユーザ端末10,20のアバター)と対話することによって孤独感及び不安を和らげることができる。また、ユーザ端末10,20の固有情報収集部13b,23bは、ユーザ端末10,20のユーザとの対話内容等から各ユーザのユーザ固有情報を収集する。よって、ユーザの属性、行動履歴、趣味、好み、思考傾向等の固有情報を蓄積することができる。そして、このような固有情報に基づく言動をユーザのアバターに行わせることにより、ユーザが言動する代わりにユーザと同じような言動をアバターに行わせることができる。従って、ユーザの代わりにユーザのアバターが他のユーザと対話することができる。また、ユーザが行きたい場所にアバターが代わりに出かけることができ、ユーザがやりたいことをアバターが代わりに実現することができる。ユーザの代わりにアバターが行った言動について履歴情報を蓄積しておき、蓄積した履歴情報を再生させることにより、ユーザは、アバターによる言動を擬似的に体験することができる。このようなアバターを介した擬似的な体験や自身による擬似的な体験を通して、ユーザは新たな気づきを得て、精神的により豊かな生活を送ることができるようになったり、現実世界での接点の拡大によって実際の行動変化を引き起こしたりすることが期待できる。 In this embodiment, the interaction processing units 13a and 23a of the user terminals 10 and 20 can interact with the users of the user terminals 10 and 20, and the users can interact with their own user terminals 10 and 20 (the Avatar) can relieve feelings of loneliness and anxiety. In addition, the unique information collection units 13b and 23b of the user terminals 10 and 20 collect user unique information of each user from the contents of conversations with the users of the user terminals 10 and 20, and the like. Therefore, unique information such as user attributes, action history, hobbies, tastes, and thinking tendencies can be accumulated. By making the user's avatar perform behavior based on such unique information, the avatar can be made to perform behavior similar to that of the user instead of the user's behavior. Thus, a user's avatar can interact with other users on behalf of the user. In addition, the avatar can go to the place where the user wants to go instead, and the avatar can realize what the user wants to do instead. By accumulating history information about speech and behavior performed by an avatar on behalf of the user and reproducing the accumulated history information, the user can simulate the speech and behavior of the avatar. Through such simulated experiences via avatars and simulated experiences by themselves, users gain new realizations, become able to live spiritually richer lives, and have opportunities to connect with people in the real world. It can be expected that the expansion of

また本実施形態において、言動実行部13cは、数年後又は数十年後等の将来に生じる可能性のあるイベントに関して、例えば専門家(専門家の端末)に問合せを行い、専門家の意見又はアドバイス(イベントに係る情報)を取得する処理を行ってもよい。このとき言動実行部13cは、自端末10のアバターを介して問合せを行ってもよい。例えば、自端末10のユーザの年齢、既往歴、医療機関への通院歴等から将来発症する可能性のある病気に関する情報を医師(又は医師のアバター)に問合せ、医師(又は医師のアバター)から病気に関する情報又はアドバイスを取得して履歴情報として言動履歴DB12cに蓄積してもよい。また、自端末10のユーザの年齢から、将来到来する入学試験、就職試験等に関する情報を所定端末(例えば専門家の端末)に問合せ、又はネットワークN上で公開されている情報を検索することにより、これらの情報を取得して履歴情報として言動履歴DB12cに蓄積してもよい。更に、自端末10のユーザの子供の年齢等から、将来到来する子供の七五三、入園、卒園、入学、卒業等のイベントに関する情報を所定端末(例えば専門家の端末)に問合せ、又はネットワークN上で公開されている情報を検索することにより、これらの情報を取得して履歴情報として言動履歴DB12cに蓄積してもよい。このような構成とした場合、自端末10のユーザ自身が、専門家への問合せ、情報の検索等を行うことなく、アバターが収集した履歴情報を閲覧することにより、各種の情報を得ることができる。 Further, in the present embodiment, the behavior execution unit 13c inquires, for example, an expert (expert's terminal) about an event that may occur in the future, such as several years or decades later, and obtains the opinion of the expert. Alternatively, a process of obtaining advice (information about an event) may be performed. At this time, the behavior executing unit 13c may make an inquiry through the avatar of the terminal 10 itself. For example, inquire of a doctor (or a doctor's avatar) about information about a disease that may develop in the future based on the user's age, medical history, visit history to a medical institution, etc., and the doctor (or the doctor's avatar) Information or advice about illness may be acquired and stored as history information in the behavior history DB 12c. In addition, based on the age of the user of the own terminal 10, by inquiring a predetermined terminal (for example, a terminal of an expert) about information on future entrance exams, employment exams, etc., or searching for information published on the network N , such information may be acquired and accumulated in the behavior history DB 12c as history information. In addition, based on the age of the child of the user of the terminal 10, the user inquires about information on future events such as Shichi-Go-San festival, kindergarten entrance, kindergarten entrance, graduation, etc. from a predetermined terminal (for example, a terminal of a specialist), or network N By retrieving the information published above, such information may be acquired and stored as history information in the behavior history DB 12c. With such a configuration, the user of the terminal 10 himself/herself can obtain various types of information by viewing the history information collected by the avatar without making inquiries to experts, searching for information, or the like. can.

また、自端末10のユーザの代わりに自端末10のアバターがユーザ固有情報に基づいて他のユーザ(他端末20のユーザ)と対話した場合に、他のユーザとフィーリングが合うか否かを自端末10のアバターによって判断することできる。よって、自端末10のアバターによってフィーリングが合うと判断された他のユーザを自端末10のユーザに推薦することにより、自端末10のユーザは、フィーリングが合う可能性が高い他のユーザを把握できる。また、自端末10のユーザがやろうとして忘れていることを、自端末10のユーザの代わりに自端末10のアバターがユーザ固有情報に基づいて行うこともできる。例えば自端末10のユーザが買い物しようとして忘れている物を、自端末10のアバターがユーザ固有情報に基づいて注文処理することもできる。具体的には、自端末10の言動実行部13cは、ユーザ固有の情報に基づいて、ユーザが購買しようとしていた商品を特定し、特定した商品の注文情報を所定端末(商品の販売サイトの端末)へ出力する処理を実行してもよい。また、自端末10のアバターは、ユーザ固有情報に基づいて自端末10のユーザが購買すべき商品を検索した場合に、この商品に関する情報をスピーカ17又は表示部16にて出力し、自端末10のユーザに提案してもよい。この場合、自端末10の言動実行部13cは、ユーザ固有の情報に基づいて、ユーザが購買しようとしていた商品を抽出し、抽出した商品に関する情報を、例えばスピーカ17又は表示部16を介して自端末10のアバターによって自端末10のユーザに提案する。その後、自端末10の言動実行部13cは、例えばマイク18又は入力部15を介してユーザから購買許可の指示を受け付けた場合に、この商品の注文情報を所定端末(商品の販売サイトの端末)へ出力することにより注文処理を行うことができる。更に、自端末10の言動実行部13cは、ユーザ固有情報に基づいて自端末10のユーザが気に入る可能性の高い商品を検索した場合に、自端末10のアバターを介してこの商品を自端末10のユーザに勧めることもできる。 Also, when the avatar of the terminal 10 instead of the user of the terminal 10 interacts with another user (user of the other terminal 20) based on the user-specific information, it is determined whether or not the feeling matches the other user. It can be judged by the avatar of the own terminal 10 . Therefore, by recommending to the user of own terminal 10 another user judged to have a similar feeling by the avatar of own terminal 10, the user of own terminal 10 can select another user with a high possibility of feeling similar. I can grasp it. Also, what the user of the terminal 10 has forgotten to do can be performed by the avatar of the terminal 10 instead of the user of the terminal 10 based on the user-specific information. For example, an avatar of the terminal 10 can process an order for an item that the user of the terminal 10 forgets to buy based on the user-specific information. Specifically, the behavior executing unit 13c of the own terminal 10 identifies the product that the user was trying to purchase based on the user-specific information, and transmits the order information of the identified product to a predetermined terminal (terminal of the product sales site). ) may be executed. Further, when the user of the terminal 10 searches for a product to be purchased by the user of the terminal 10 based on the user-specific information, the avatar of the terminal 10 outputs information about the product through the speaker 17 or the display unit 16, and the avatar of the terminal 10 users. In this case, the speech/behavior executing unit 13c of the terminal 10 extracts the product that the user is trying to purchase based on the information unique to the user, and automatically transmits the information about the extracted product via the speaker 17 or the display unit 16, for example. The avatar of the terminal 10 proposes to the user of the terminal 10 itself. After that, when receiving a purchase permission instruction from the user via the microphone 18 or the input unit 15, for example, the behavior execution unit 13c of the own terminal 10 transmits the order information of the product to a predetermined terminal (terminal of the product sales site). Order processing can be performed by outputting to Further, when the behavior executing unit 13c of the own terminal 10 searches for a product that the user of the own terminal 10 is likely to like based on the user-specific information, the speech execution unit 13c of the own terminal 10 sends the product to the own terminal 10 via the avatar of the own terminal 10. can be recommended to users of

本実施形態では、固有情報DB12aに蓄積されたユーザ固有情報に基づいて、自端末10のユーザが行う可能性の高い言動を再現できる。よって、例えば自端末10のユーザ本人が病気等で対話できなくなった場合であっても、ユーザ固有情報に基づく言動に従って、ユーザ本人が何を言いたいのか何をしたいのか等を予測できる。 In this embodiment, it is possible to reproduce behaviors that are highly likely to be performed by the user of the terminal 10 based on the user-specific information accumulated in the specific information DB 12a. Therefore, for example, even if the user of the terminal 10 himself/herself becomes ill and unable to interact, it is possible to predict what the user himself/herself wants to say or do, etc. according to the behavior based on the user-specific information.

(実施形態2)
ユーザ固有情報を登録する際に、ユーザの生体情報に基づくユーザの状態を考慮する情報処理システムについて説明する。本実施形態の情報処理システムは、実施形態1の情報処理システムと同様のユーザ端末10,20によって実現されるので、同様の構成については説明を省略する。なお、本実施形態の情報処理システムは、ユーザ端末10,20の各ユーザの生体情報を計測する生体情報計測器30を更に含む。
(Embodiment 2)
An information processing system that considers a user's state based on the user's biometric information when registering user-specific information will be described. The information processing system of the present embodiment is realized by the user terminals 10 and 20 similar to those of the information processing system of the first embodiment, so the description of the same configuration will be omitted. The information processing system of this embodiment further includes a biological information measuring instrument 30 that measures the biological information of each user of the user terminals 10 and 20 .

図15は実施形態2の情報処理システムの構成例を示す模式図である。図15は自端末10及び自端末10のユーザの生体情報を計測する生体情報計測器30のみを示すが、本実施形態の情報処理システムは、それぞれの他端末20のユーザの生体情報を計測する生体情報計測器を含む。本実施形態のユーザ端末10,20において通信部14,24は、ネットワークNに接続するためのインタフェースだけでなく、有線通信又は無線通信によって、それぞれ対応する生体情報計測器30と通信するためのインタフェースを含み、生体情報計測器30との間で情報の送受信を行う。生体情報計測器30は、例えばスマートウォッチのような腕時計型のウェアラブルデバイスであり、ユーザの心拍数、脈拍数、血圧等の生体情報を計測する。生体情報計測器30は、計測した生体情報を逐次ユーザ端末10,20へ送信し、ユーザ端末10,20の通信部14,24は、それぞれ通信可能な生体情報計測器30から送信されてくる生体情報を順次取得する。 FIG. 15 is a schematic diagram showing a configuration example of an information processing system according to the second embodiment. Although FIG. 15 shows only the own terminal 10 and the biological information measuring device 30 for measuring the biological information of the user of the own terminal 10, the information processing system of this embodiment measures the biological information of the users of the respective other terminals 20. Including biological information measuring instruments. In the user terminals 10 and 20 of the present embodiment, the communication units 14 and 24 are not only interfaces for connecting to the network N, but also interfaces for communicating with the corresponding biological information measuring instruments 30 by wired communication or wireless communication. and transmits and receives information to and from the biological information measuring instrument 30 . The biological information measuring device 30 is, for example, a wristwatch-type wearable device such as a smart watch, and measures biological information such as a user's heart rate, pulse rate, and blood pressure. The biological information measuring instrument 30 sequentially transmits the measured biological information to the user terminals 10 and 20, and the communication units 14 and 24 of the user terminals 10 and 20 receive the biological information transmitted from the communicable biological information measuring instrument 30, respectively. Get information sequentially.

本実施形態の情報処理システムにおいても、ユーザ端末10,20のそれぞれは、各端末のユーザにおけるユーザ固有情報を収集する処理を行う。なお、本実施形態のユーザ端末10,20は、ユーザ固有情報を収集して固有情報DB12aに記憶(登録)する際に、それぞれのユーザの生体情報に基づくユーザの状態を考慮する。図16は、自端末10によるユーザ固有情報の収集処理の手順例を示すフローチャートである。なお、図16は自端末10が行う処理を示すが、他端末20も同様の処理を行う。 Also in the information processing system of the present embodiment, each of the user terminals 10 and 20 performs a process of collecting user-specific information of the user of each terminal. It should be noted that the user terminals 10 and 20 of the present embodiment take into account the user's state based on the biometric information of each user when collecting the user's unique information and storing (registering) it in the unique information DB 12a. FIG. 16 is a flow chart showing an example of a procedure for collection processing of user-specific information by the own terminal 10. As shown in FIG. Although FIG. 16 shows the processing performed by the own terminal 10, the other terminal 20 also performs the same processing.

自端末10の固有情報収集部13bは、対話処理部13aによって自端末10のユーザとの対話を行う。具体的には、固有情報収集部13bは、対話処理部13aによってユーザとの対話内容を示す対話情報(対話メッセージ)を生成し、スピーカ17又は表示部16にて出力する(S81)。対話情報は、予め記憶部12に記憶された対話メッセージであってもよく、マイク18又は入力部15を介して取得したユーザからの対話内容に応じた返答メッセージであってもよい。固有情報収集部13bは、出力した対話情報に対してユーザが返答した返答情報(返答メッセージ)をマイク18又は入力部15にて取得する(S82)。 The unique information collection unit 13b of the own terminal 10 interacts with the user of the own terminal 10 by the interaction processing unit 13a. Specifically, the unique information collection unit 13b generates dialogue information (dialogue message) indicating the content of the dialogue with the user by the dialogue processing unit 13a, and outputs it through the speaker 17 or the display unit 16 (S81). The dialogue information may be a dialogue message stored in the storage unit 12 in advance, or may be a reply message according to the content of the dialogue from the user acquired via the microphone 18 or the input unit 15 . The specific information collecting unit 13b acquires the reply information (response message) that the user replies to the output dialogue information through the microphone 18 or the input unit 15 (S82).

自端末10の制御部11は、固有情報収集部13bによってユーザと対話しつつ、生体情報計測器30から送信されたユーザの生体情報を取得する(S83)。制御部11は、生体情報計測器30から取得した生体情報に基づいて、ユーザの心理状態を検出する(S84)。例えば制御部11は、生体情報計測器30で計測された心拍数及び脈拍数から、ユーザの自律神経の状態を検出する。一般的に知られているように、自律神経には、活動時に活発になる交感神経と、夜間又は安静時に活発になる副交感神経とがあり、交感神経と副交感神経とのバランスに応じてユーザがリラックス状態であるか緊張・不安状態であるかを検出する。 The control unit 11 of the own terminal 10 acquires the user's biological information transmitted from the biological information measuring device 30 while interacting with the user through the unique information collecting unit 13b (S83). The control unit 11 detects the psychological state of the user based on the biological information acquired from the biological information measuring instrument 30 (S84). For example, the control unit 11 detects the state of the user's autonomic nerves from the heart rate and pulse rate measured by the biological information measuring device 30 . As is generally known, autonomic nerves include sympathetic nerves that become active during activity and parasympathetic nerves that become active at night or at rest. Detect whether the person is in a relaxed state or a tense/anxious state.

具体的には、制御部11は、ユーザの心拍数及び脈拍数の計測結果(正確には心電波形及び脈波)に対してスペクトル解析を行い、低周波帯域成分(LF;Low Frequency)と高周波帯域成分(HF;High Frequency)とを抽出して、両者の比率を示すLF/HF値を算出する。低周波帯域成分には主に交感神経成分が含まれ、高周波帯域成分には主に副交感神経成分が含まれ、制御部11は、LF/HF値を算出することで交感神経及び副交感神経のバランスを取得することができる。制御部11は、算出したLF/HF値に基づいてユーザの心理状態を判断する。例えば制御部11は、LF/HF値が所定値以上であれば、ユーザは緊張・不安状態であると判断し、LF/HF値が所定値未満であれば、ユーザはリラックス状態であると判断してもよい。なお、制御部11は、LF/HF値以外の数値を算出し、算出結果に基づいてユーザの状態を検出してもよい。 Specifically, the control unit 11 performs spectrum analysis on the measurement results of the user's heart rate and pulse rate (more precisely, electrocardiographic waveform and pulse wave), and determines low frequency band components (LF; Low Frequency). A high frequency band component (HF; High Frequency) is extracted, and an LF/HF value indicating the ratio of the two is calculated. The low-frequency band component mainly contains a sympathetic nerve component, and the high-frequency band component mainly contains a parasympathetic nerve component. can be obtained. The control unit 11 determines the psychological state of the user based on the calculated LF/HF value. For example, if the LF/HF value is equal to or greater than a predetermined value, the control unit 11 determines that the user is in a tense/anxious state, and if the LF/HF value is less than the predetermined value, determines that the user is in a relaxed state. You may Note that the control unit 11 may calculate a numerical value other than the LF/HF value and detect the user's condition based on the calculation result.

制御部11は、検出したユーザの心理状態がリラックス状態であるか否かを判断し(S85)、リラックス状態であると判断した場合(S85:YES)、固有情報収集部13bにより、ステップS82で取得した返答情報からユーザ固有情報を抽出する(S86)。そして、固有情報収集部13bは、抽出したユーザ固有情報を、情報ID及び情報内容に対応付けて固有情報DB12aに記憶する(S87)。これにより、ユーザがリラックス状態であるときにユーザとの対話内容から抽出されたユーザ固有情報が固有情報DB12aに登録される。一方、検出したユーザの状態が緊張・不安状態であると判断した場合(S85:NO)、制御部11は、ステップS86~S87をスキップする。これにより、ユーザが緊張・不安状態であるときにユーザとの対話内容から抽出されるユーザ固有情報は固有情報DB12aに登録されない。よって、リラックス状態でない(緊張・不安状態である)ユーザが発した対話内容は、ユーザの本意ではない可能性があるので、このような対話内容から抽出されるユーザ固有情報を登録しないことにより、ユーザ本来の状態でのユーザ固有情報のみを登録することができる。 The control unit 11 determines whether or not the detected state of mind of the user is in a relaxed state (S85), and if it is determined to be in a relaxed state (S85: YES), the unique information collection unit 13b causes User unique information is extracted from the acquired reply information (S86). Then, the unique information collection unit 13b stores the extracted user unique information in the unique information DB 12a in association with the information ID and the information content (S87). Thereby, the user-specific information extracted from the content of the dialogue with the user when the user is in the relaxed state is registered in the specific information DB 12a. On the other hand, when it is determined that the detected state of the user is the tense/anxious state (S85: NO), the control section 11 skips steps S86 to S87. As a result, the user-specific information extracted from the content of the dialogue with the user when the user is in a tense/anxious state is not registered in the specific information DB 12a. Therefore, since there is a possibility that the content of dialogue uttered by a user who is not in a relaxed state (in a tense/anxious state) is not the user's intention, by not registering user-specific information extracted from such dialogue content, Only user-specific information in the user's original state can be registered.

制御部11は、固有情報収集部13b(対話処理部13a)がユーザとの対話を終了したか否かを判断しており(S88)、終了していないと判断した場合(S88:NO)、ステップS81の処理に戻る。そして固有情報収集部13bは、ユーザと次に対話すべき対話情報(対話メッセージ)を生成し、スピーカ17又は表示部16にて出力し(S81)、ステップS82~S87の処理を繰り返す。制御部11は、固有情報収集部13b(対話処理部13a)がユーザとの対話を終了したと判断した場合(S88:YES)、処理を終了する。上述した処理により、ユーザがリラックス状態である場合に、ユーザとの対話内容からユーザ固有情報が逐次抽出されて登録されるので、ユーザが意識することなく、本来のユーザにおけるユーザ固有情報の蓄積が可能である。なお、ユーザが緊張・不安状態である場合には、ユーザ固有情報の蓄積は行われないが、ユーザとの対話は行われるので、ユーザは自身の状態にかかわらず、自端末10と対話することができる。 The control unit 11 determines whether or not the unique information collection unit 13b (interaction processing unit 13a) has finished the dialogue with the user (S88). The process returns to step S81. Then, the unique information collection unit 13b generates dialogue information (dialogue message) to be next dialogued with the user, outputs it through the speaker 17 or the display unit 16 (S81), and repeats the processing of steps S82 to S87. When the control unit 11 determines that the unique information collection unit 13b (interaction processing unit 13a) has finished the interaction with the user (S88: YES), the process ends. With the above-described processing, when the user is in a relaxed state, the user-specific information is sequentially extracted from the content of the dialogue with the user and registered. It is possible. Note that when the user is in a tense/anxious state, user-specific information is not accumulated, but dialogue with the user is performed. can be done.

本実施形態の情報処理システムにおいて、ユーザ端末10,20は、図7~図8に示す処理と同様の処理を行う。これにより、本実施形態においても、自端末10に設定されたアバター(ユーザのアバター)に、固有情報DB12aに蓄積されたユーザ固有情報に基づいて、他端末20のユーザ又はアバターとの対話を行わせることができる。また本実施形態のユーザ端末10,20は、図9~図10に示す処理と同様の処理を行う。これにより、本実施形態においても、自端末10のユーザは、自端末10を用いて、他端末20のユーザ又はアバターと対話を行うことができる。また本実施形態のユーザ端末10,20は、図12に示す処理と同様の処理を行う。これにより、本実施形態においても、自端末10に設定されたアバター(ユーザのアバター)に、固有情報DB12aに蓄積されたユーザ固有情報に基づいて、擬似的な外出行為(行動)を行わせることができる。更に本実施形態のユーザ端末10,20は、図13に示す処理と同様の処理を行う。これにより、自端末10のアバターが行った他端末20のユーザ又はアバターとの対話履歴、自端末10のアバターが行った擬似的な外出行為に係る外出履歴等を自端末10で再現できる。よって、自端末10のユーザは、自端末10のアバターが行った他端末20のユーザ又はアバターとの対話、自身が行きたかった場所への外出、自身がやりたかったことの体験等を擬似的に行うことができる。 In the information processing system of this embodiment, the user terminals 10 and 20 perform processing similar to the processing shown in FIGS. As a result, in the present embodiment as well, the avatar (user's avatar) set in the own terminal 10 interacts with the user or the avatar of the other terminal 20 based on the user unique information accumulated in the unique information DB 12a. can let Further, the user terminals 10 and 20 of this embodiment perform the same processing as the processing shown in FIGS. 9 and 10. FIG. Accordingly, in the present embodiment as well, the user of the own terminal 10 can use the own terminal 10 to interact with the user of the other terminal 20 or the avatar. Also, the user terminals 10 and 20 of this embodiment perform the same processing as the processing shown in FIG. Thus, also in the present embodiment, the avatar (user's avatar) set in the own terminal 10 can be made to perform a pseudo-outing act (behavior) based on the user unique information accumulated in the unique information DB 12a. can be done. Furthermore, the user terminals 10 and 20 of this embodiment perform the same processing as the processing shown in FIG. As a result, the conversation history of the avatar of the terminal 10 with the user of the other terminal 20 or the avatar, the going-out history of the avatar of the terminal 10 , etc. can be reproduced on the terminal 10 . Therefore, the user of the own terminal 10 simulates the interaction with the user of the other terminal 20 or the avatar conducted by the avatar of the own terminal 10, going out to the place the user wants to go, and experiencing what the user wants to do. can be done.

本実施形態においても、実施形態1と同様の効果が得られる。また本実施形態では、ユーザ固有情報を登録する際に、ユーザの心拍数、脈拍数等を計測し、ユーザの心身の状態がリラックスして冷静であるか否かを判断し、冷静である時に収集したユーザ固有情報のみを固有情報DB12aに蓄積できる。この場合、心身の状態が冷静でない興奮状態の時に収集されたユーザ固有情報を登録しない(破棄する)ことにより、ユーザの普段の状態で収集されたユーザ固有情報のみを蓄積できる。 Also in this embodiment, the same effects as in the first embodiment can be obtained. In addition, in this embodiment, when registering the user-specific information, the user's heart rate, pulse rate, etc. are measured, and it is determined whether or not the user's mental and physical state is relaxed and calm. Only the collected user unique information can be stored in the unique information DB 12a. In this case, by not registering (destroying) the user-specific information collected when the user is not calm and excited, it is possible to accumulate only the user-specific information collected when the user is in a normal state.

(実施形態3)
それぞれのユーザ端末10,20が、それぞれのユーザの言動に基づいて構築されたユーザモデルを用いて言動処理を実行する情報処理システムについて説明する。本実施形態の情報処理システムは、実施形態1の情報処理システムと同様のユーザ端末10,20によって実現される。図17は実施形態3の自端末10の構成例を示すブロック図である。本実施形態の自端末10は、実施形態1の自端末10と同様の構成を有するので、同様の構成については説明を省略する。なお、本実施形態の自端末10では、記憶部12に固有情報DB12aの代わりにユーザモデル12Mを記憶しており、処理部13は固有情報収集部13bを有しない。
(Embodiment 3)
An information processing system in which each of the user terminals 10 and 20 executes speech and action processing using a user model constructed based on the speech and behavior of each user will be described. The information processing system of this embodiment is implemented by user terminals 10 and 20 similar to the information processing system of the first embodiment. FIG. 17 is a block diagram showing a configuration example of the own terminal 10 according to the third embodiment. Since the own terminal 10 of the present embodiment has the same configuration as the own terminal 10 of the first embodiment, description of the similar configuration will be omitted. Note that in the self-terminal 10 of the present embodiment, the storage unit 12 stores the user model 12M instead of the unique information DB 12a, and the processing unit 13 does not have the unique information collection unit 13b.

ユーザモデル12Mは、例えば深層学習アルゴリズムを用いて学習させたディープラーニングモデルであり、例えばRNN(Recurrent Neural Network)を用いたSeq2Seq(Sequence to Sequence)モデルにて構築されている。ユーザモデル12M(第1ユーザモデル)は、自端末10のユーザ(第1ユーザ)に対して提示された提示データと、この提示データに対してユーザが行った回答データとを含む教師データを用いて、提示データが入力された場合に、入力された提示データに対応する回答データを出力するように学習された学習済みモデルである。なお、提示データは例えば自端末10のユーザに対する対話情報であり、回答データはこの対話情報に対応してユーザが返答した返答情報である。提示データは例えばスピーカ17又は表示部16を介してユーザに提示した対話情報を含み、回答データはこの対話情報に対してユーザがマイク18又は入力部15を介して入力した返答情報を含む。また提示データは自端末10のユーザが電子メール、LINEメッセージ、LINEスタンプ、SNS等を介して他端末20から受信した対話情報を含んでもよく、回答データはこの対話情報に対してユーザが他端末20へ返信した返答情報を含んでもよい。また提示データは例えば自端末10のユーザに対して行われたアクションに関する情報を含み、回答データは、このアクションに対してユーザが行った行動に関する情報を含んでもよい。例えば、自端末10のユーザがLINEメッセージを受信した場合に、所定のLINEスタンプを返信するものとする。この場合、LINEメッセージの受信を提示データとし、所定のLINEスタンプの返信を回答データとすることができる。学習済みモデルは、入力値に対して所定の演算を行い、演算結果を出力するものであり、この演算を規定する関数の係数や閾値等のデータが、ユーザモデル12Mとして記憶部12に記憶される。 The user model 12M is, for example, a deep learning model learned using a deep learning algorithm, and is constructed by, for example, a Seq2Seq (Sequence to Sequence) model using RNN (Recurrent Neural Network). The user model 12M (first user model) uses teaching data including presentation data presented to the user (first user) of the own terminal 10 and data of the user's response to the presentation data. It is a trained model trained to output response data corresponding to the input presentation data when the presentation data is input. The presentation data is, for example, dialogue information for the user of the terminal 10 itself, and the reply data is reply information that the user has responded to in response to this dialogue information. The presentation data includes, for example, dialogue information presented to the user via the speaker 17 or the display unit 16, and the response data includes response information input by the user via the microphone 18 or the input unit 15 to this dialogue information. The presentation data may also include dialogue information received by the user of the terminal 10 from the other terminal 20 via e-mail, LINE message, LINE stamp, SNS, or the like. 20 may be included. Also, the presentation data may include, for example, information regarding an action performed on the user of the terminal 10, and the response data may include information regarding the action performed by the user in response to this action. For example, when the user of the own terminal 10 receives a LINE message, it is assumed that a predetermined LINE stamp is returned. In this case, the reception of the LINE message can be used as the presentation data, and the return of the predetermined LINE stamp can be used as the response data. A trained model performs a predetermined calculation on an input value and outputs a calculation result, and data such as a coefficient of a function that defines this calculation and a threshold value are stored in the storage unit 12 as a user model 12M. be.

ユーザモデル12Mは、自端末10において学習が行われてもよく、他の学習装置において学習された後に自端末10の記憶部12に記憶されてもよい。ユーザモデル12Mは、教師データに含まれる提示データを入力した場合に、教師データに含まれる回答データが出力されるように学習する。なお、学習処理において、ユーザモデル12Mは、入力データに対して行う所定の演算を規定する関数の係数や閾値等のデータを最適化する。これにより、入力された対話情報(提示データ)に基づいて、自端末10のユーザが行う可能性の高い回答データ(返答情報)を出力するように学習されたユーザモデル12Mが得られる。 User model 12M may be learned in own terminal 10, or may be stored in storage unit 12 of own terminal 10 after being learned in another learning device. The user model 12M learns such that when the presentation data included in the teacher data is input, the answer data included in the teacher data is output. In the learning process, the user model 12M optimizes data such as coefficients of functions and threshold values that define predetermined calculations to be performed on input data. As a result, a user model 12M that has been learned to output response data (response information) that the user of the terminal 10 is likely to make based on the input dialogue information (presentation data) is obtained.

本実施形態の対話処理部13aは、ユーザモデル12Mを用いて、自端末10のユーザとの対話、及び、他端末20のユーザ又はアバターとの対話を行う。具体的には、対話処理部13aは、自端末10のアバター(ユーザモデル12M)に対する対話情報(提示データ)を取得した場合、取得した対話情報をユーザモデル12Mに入力し、ユーザモデル12Mから出力される、前記対話情報に対する返答情報(回答データ)を取得する。なお、対話情報は、自端末10のユーザとの対話においては、例えばマイク18又は入力部15を介して自端末10のユーザから取得し、他端末20のユーザ又はアバターとの対話においては、通信部14を介して他端末20(他端末20のユーザ又はアバター)から取得する。 The interaction processing unit 13a of the present embodiment uses the user model 12M to interact with the user of the own terminal 10 and interact with the user of the other terminal 20 or an avatar. Specifically, when obtaining dialogue information (presentation data) for the avatar (user model 12M) of its own terminal 10, the dialogue processing unit 13a inputs the obtained dialogue information to the user model 12M and outputs it from the user model 12M. Acquisition of response information (response data) to the dialogue information. The dialogue information is acquired from the user of the terminal 10 via, for example, the microphone 18 or the input unit 15 in the dialogue with the user of the terminal 10, and is acquired from the user of the terminal 10 or the avatar in the dialogue with the user of the other terminal 20. Acquired from the other terminal 20 (the user of the other terminal 20 or an avatar) via the unit 14 .

対話処理部13aは、ユーザモデル12Mを用いて対話情報に対する返答情報を特定することにより、自端末10のユーザが返答する可能性の高い返答情報(回答データ)を特定できる。そして、対話処理部13aは、自端末10のユーザと対話する場合、特定した返答情報をスピーカ17又は表示部16にて出力することによって自端末10のユーザに返答する。また対話処理部13aは、他端末20のユーザ又はアバターと対話する場合、特定した返答情報を通信部14から他端末20へ返信することによって他端末20のユーザ又はアバターに返答する。このように、本実施形態の対話処理部13aは、自端末10のアバターに対する対話情報を取得した場合に、対話情報に対する返答情報をユーザモデル12Mを用いて特定することにより、自端末10のユーザが行う可能性の高い返答を行うことができる。なお、ユーザモデル12Mは、Seq2Seqモデルを用いて構築される構成に限定されない。 The dialogue processing unit 13a can identify reply information (response data) that is highly likely to be replied by the user of the own terminal 10 by identifying reply information to the dialogue information using the user model 12M. Then, when interacting with the user of its own terminal 10 , the dialogue processing unit 13 a responds to the user of its own terminal 10 by outputting the specified response information through the speaker 17 or the display unit 16 . Further, when interacting with the user or the avatar of the other terminal 20 , the interaction processing section 13 a responds to the user or the avatar of the other terminal 20 by sending back the specified response information from the communication section 14 to the other terminal 20 . As described above, the dialogue processing unit 13a of the present embodiment, when obtaining the dialogue information for the avatar of the terminal 10, uses the user model 12M to identify the response information to the dialogue information, thereby allowing the user of the terminal 10 to You can make a reply that is likely to be made by Note that the user model 12M is not limited to the configuration constructed using the Seq2Seq model.

本実施形態においても、他端末20は自端末10と同様の構成を有する。よって、他端末20において、他端末20のユーザ(第2ユーザ)に対して提示された提示データと、この提示データに対して他端末20のユーザが行った回答データとを含む教師データを用いて、提示データが入力された場合に、入力された提示データに対応する回答データを出力するように学習された学習済みモデルであるユーザモデル22M(第2ユーザモデル)が、記憶部22に記憶されている。 Also in this embodiment, the other terminal 20 has the same configuration as the own terminal 10 . Therefore, in the other terminal 20, teacher data including presentation data presented to the user (second user) of the other terminal 20 and answer data given by the user of the other terminal 20 to the presentation data is used. A user model 22M (second user model), which is a learned model trained to output answer data corresponding to the input presentation data when presentation data is input, is stored in the storage unit 22. It is

図18は、実施形態3の自端末10及び他端末20による言動処理の手順例を示すフローチャートである。図18に示す処理は、図7及び図8に示す処理においてステップS27の前にステップS91を追加し、ステップS28の前にステップS92を追加したものである。図18では、図7に示したステップS21~S26の図示を省略しており、図7及び図8と同様のステップについては説明を省略する。なお、各ユーザ端末10,20は、それぞれのユーザに基づく教師データを用いて学習されたユーザモデル12M,22Mを記憶部12,22に記憶しているものとする。 FIG. 18 is a flow chart showing an example of a procedure of behavior processing by the own terminal 10 and the other terminal 20 according to the third embodiment. The process shown in FIG. 18 is obtained by adding step S91 before step S27 and adding step S92 before step S28 in the process shown in FIGS. In FIG. 18, illustration of steps S21 to S26 shown in FIG. 7 is omitted, and description of the same steps as in FIGS. 7 and 8 is omitted. It is assumed that each of the user terminals 10 and 20 stores user models 12M and 22M learned using teacher data based on each user in the storage units 12 and 22, respectively.

本実施形態では、ステップS21において自端末10の言動実行部13cは、マイク18又は入力部15を介して自端末10のユーザから、自端末10のアバター(ユーザモデル12M)による対話の実行命令(実行要求)を受け付ける。ここでの対話実行命令は、いずれかの他端末20のユーザ又はアバターとの対話の実行命令である。また、本実施形態において、他端末20の言動実行部(設定部)23cは、自端末10から要求された対話が可能であると判断した場合(S24:YES)、自端末10とのコネクションを設定する(S91)。これにより、他端末20の言動実行部23cは、対話を要求してきた自端末10のユーザ又はアバター(ユーザモデル12M)と、他端末20のユーザ又はアバター(ユーザモデル22M)とのコネクションを設定する。そして、他端末20の言動実行部23cは、対話を要求された他端末20のユーザ又はアバターが対話可能である旨を自端末10に通知する(S27)。一方、自端末10の言動実行部(設定部)13cは、他端末20から対話可能を通知された後、他端末20とのコネクションを設定する(S92)。これにより、自端末10の言動実行部13cは、対話を要求した自端末10のユーザ又はアバター(ユーザモデル12M)と、他端末20のユーザ又はアバター(ユーザモデル22M)とのコネクションを設定する。そして、自端末10の言動実行部13cは、マイク18又は入力部15を介して要求された対話内容に基づいて対話情報を生成する(S28)。なお、言動実行部13c(対話処理部13a)は、例えば「話したいことは何ですか」のようなメッセージを提示データとしてユーザモデル12Mに入力し、ユーザモデル12Mから出力される返答情報(回答データ)を、他端末20のユーザ又はアバターへ送信すべき対話情報としてもよい。 In this embodiment, in step S21, the behavior executing unit 13c of the terminal 10 receives an execution command ( execution request). The interaction execution instruction here is an execution instruction for interaction with the user of any of the other terminals 20 or the avatar. Further, in the present embodiment, when the behavior executing unit (setting unit) 23c of the other terminal 20 determines that the dialogue requested by the own terminal 10 is possible (S24: YES), the connection with the own terminal 10 is established. Set (S91). As a result, the behavior executing unit 23c of the other terminal 20 establishes a connection between the user or avatar (user model 12M) of the terminal 10 requesting the dialogue and the user or avatar (user model 22M) of the other terminal 20. . Then, the speech/behavior execution unit 23c of the other terminal 20 notifies the own terminal 10 that the user or the avatar of the other terminal 20 requested to interact can interact (S27). On the other hand, the behavior executing unit (setting unit) 13c of the own terminal 10 sets a connection with the other terminal 20 after being notified that the conversation is possible from the other terminal 20 (S92). Thereby, the behavior executing unit 13c of the own terminal 10 establishes a connection between the user or avatar (user model 12M) of the own terminal 10 requesting the interaction and the user or avatar (user model 22M) of the other terminal 20. FIG. Then, the behavior execution unit 13c of the own terminal 10 generates dialogue information based on the dialogue content requested via the microphone 18 or the input unit 15 (S28). Note that the behavior execution unit 13c (dialogue processing unit 13a) inputs a message such as "What do you want to talk about?" data) may be interactive information to be transmitted to the user of the other terminal 20 or the avatar.

その後、自端末10及び他端末20の言動実行部13c,23cは、ステップS29以降の処理を行う。なお、他端末20の言動実行部23cは、自端末10から送信された対話情報(自端末10から提示された提示データ)を取得する取得部として動作し、自端末10の言動実行部13cは、他端末20から送信された対話情報(他端末20から提示された提示データ)を取得する取得部として動作する。また、本実施形態では、ステップS34において他端末20の言動実行部23c(対話処理部23a)は、ユーザモデル22Mを用いて、自端末10から受信した対話情報に対応する返答情報(返答メッセージ)を生成する。具体的には、対話処理部23aは、自端末10から受信した対話情報を、他端末20のアバターに対する提示データとしてユーザモデル22Mに入力し、ユーザモデル22Mから出力される返答情報(回答データ)を取得し、取得した返答情報を、自端末10へ返信する返答情報とする。またステップS28において自端末10の言動実行部13c(対話処理部13a)は、ユーザモデル12Mを用いて、他端末20から受信した対話情報(返答情報)に対応する返答情報を生成する。ここでも、自端末10の対話処理部13aは、他端末20から受信した対話情報を、自端末10のアバターに対する提示データとして自端末10のユーザモデル12Mに入力し、ユーザモデル12Mから出力される返答情報を取得し、取得した返答情報を、他端末20へ返信する返答情報とする。 After that, the behavior execution units 13c and 23c of the own terminal 10 and the other terminal 20 perform the processing after step S29. Note that the behavior execution unit 23c of the other terminal 20 operates as an acquisition unit that acquires the dialogue information (presentation data presented from the own terminal 10) transmitted from the own terminal 10, and the behavior execution unit 13c of the own terminal 10 , an acquisition unit that acquires dialogue information transmitted from the other terminal 20 (presentation data presented from the other terminal 20). Further, in this embodiment, in step S34, the behavior execution unit 23c (dialogue processing unit 23a) of the other terminal 20 uses the user model 22M to generate reply information (reply message) corresponding to the dialogue information received from the own terminal 10. to generate Specifically, the dialog processing unit 23a inputs the dialog information received from the own terminal 10 to the user model 22M as presentation data for the avatar of the other terminal 20, and the response information (response data) output from the user model 22M. is obtained, and the obtained response information is used as response information to be returned to the terminal 10 itself. Also, in step S28, the behavior execution unit 13c (dialogue processing unit 13a) of the terminal 10 generates response information corresponding to the dialogue information (response information) received from the other terminal 20 using the user model 12M. Here also, the dialogue processing unit 13a of the own terminal 10 inputs the dialogue information received from the other terminal 20 into the user model 12M of the own terminal 10 as presentation data for the avatar of the own terminal 10, and is output from the user model 12M. Reply information is acquired, and the acquired reply information is used as reply information to be returned to the other terminal 20.例文帳に追加

上述した処理により、本実施形態においても、自端末10のユーザは、自端末10に設定してある自身のアバターによって、他端末20のユーザ又はアバターと対話することができる。また、本実施形態では、それぞれのユーザ端末10,20毎に学習されたユーザモデル12M,22Mを用いて、自端末10のアバターが他端末20のユーザ又はアバターとの間でやり取りする対話情報及び返答情報、或いは、他端末20のアバターが自端末10のアバターとの間でやり取りする対話情報及び返答情報が生成される。よって、各ユーザ端末10,20のユーザが行う可能性が高い対話を、各ユーザ端末10,20のアバターによって再現できる。 According to the process described above, the user of the own terminal 10 can interact with the user of the other terminal 20 or the avatar by using the own avatar set in the own terminal 10 in this embodiment as well. Further, in the present embodiment, using the user models 12M and 22M learned for each of the user terminals 10 and 20, the avatar of the own terminal 10 exchanges dialogue information and Response information, or dialogue information and response information exchanged between the avatar of the other terminal 20 and the avatar of the own terminal 10 is generated. Therefore, dialogues that are highly likely to be performed by the users of the user terminals 10 and 20 can be reproduced by the avatars of the user terminals 10 and 20 .

本実施形態のユーザ端末10,20は、図9及び図10に示す言動処理と同様の処理を行う。なお、本実施形態では、ステップS47において他端末20の言動実行部23cは、自端末10から要求された対話が可能であると判断した場合(S44:YES)、自端末10とのコネクションを設定し、その後、対話を要求された他端末20のユーザ又はアバターが対話可能である旨を自端末10に通知する。またステップS48において自端末10の言動実行部13cは、他端末20から対話可能を通知された後、他端末20とのコネクションを設定し、その後、他端末20への対話情報を受け付ける。また本実施形態では、ステップS55において他端末20の言動実行部23c(対話処理部23a)は、ユーザモデル22Mを用いて、自端末10から受信した対話情報に対応する返答情報(返答メッセージ)を生成する。具体的には、対話処理部23aは、自端末10から受信した対話情報を、他端末20のアバターに対する提示データとしてユーザモデル22Mに入力し、ユーザモデル22Mから出力される返答情報(回答データ)を取得し、取得した返答情報を、自端末10へ返信する返答情報とする。このような処理により、本実施形態においても、自端末10のユーザは、他端末20のユーザ又はアバターと対話することができる。本実施形態では、それぞれの他端末20毎に学習されたユーザモデル22Mを用いて、他端末20のアバターが自端末10のユーザとの間でやり取りする対話情報及び返答情報が生成される。よって、他端末20のユーザが行う可能性が高い対話を、他端末20のアバターにおいて再現でき、自端末10のユーザは、他端末20のアバターを介して他端末20のユーザとの対話を擬似的に行うことができる。 The user terminals 10 and 20 of this embodiment perform processing similar to the behavior processing shown in FIGS. 9 and 10 . Note that in the present embodiment, when the behavior execution unit 23c of the other terminal 20 determines in step S47 that the dialogue requested by the terminal 10 is possible (S44: YES), the connection with the terminal 10 is established. After that, the terminal 10 notifies the terminal 10 that the user or avatar of the other terminal 20 requested to interact can interact. In step S<b>48 , the behavior executing unit 13 c of the own terminal 10 establishes a connection with the other terminal 20 after being notified that the conversation is possible from the other terminal 20 , and then receives dialogue information for the other terminal 20 . Further, in the present embodiment, in step S55, the behavior execution unit 23c (dialogue processing unit 23a) of the other terminal 20 generates reply information (reply message) corresponding to the dialogue information received from the own terminal 10 using the user model 22M. Generate. Specifically, the dialog processing unit 23a inputs the dialog information received from the own terminal 10 to the user model 22M as presentation data for the avatar of the other terminal 20, and the response information (response data) output from the user model 22M. is obtained, and the obtained response information is used as response information to be returned to the terminal 10 itself. Through such processing, the user of the own terminal 10 can interact with the user of the other terminal 20 or the avatar in this embodiment as well. In the present embodiment, the user model 22M learned for each of the other terminals 20 is used to generate dialogue information and response information that the avatar of the other terminal 20 exchanges with the user of the terminal 10 itself. Therefore, a dialogue that is likely to be performed by the user of the other terminal 20 can be reproduced in the avatar of the other terminal 20, and the user of the own terminal 10 simulates the dialogue with the user of the other terminal 20 via the avatar of the other terminal 20. can be done systematically.

本実施形態のユーザ端末10,20は、図12に示す言動処理と同様の処理を行う。なお、本実施形態では、自端末10の制御部11は、言動実行部13cによって自端末10のアバターを介して、ユーザモデル12Mに基づいて擬似的な外出行為を実行する。具体的には、ステップS61において自端末10の言動実行部13cは、ユーザモデル22Mを用いて、自端末10のユーザが行きたいと思っている場所があるか否かを判断する。例えば言動実行部13cは、「行きたい場所」を提示データとしてユーザモデル12Mに入力し、ユーザモデル12Mから出力される「行きたい場所」に関する情報(回答データ)を取得する。なお、言動実行部13cは、ユーザモデル12Mから「行きたい場所」に関する情報が出力されたか否かに応じて、自端末10のユーザが行きたいと思っている場所があるか否かを判断する。また、ステップS65において自端末10の言動実行部13cは、ユーザモデル22Mを用いて、自端末10のユーザがやりたいと思っていることがあるか否かを判断する。例えば言動実行部13cは、「やりたいこと」を提示データとしてユーザモデル12Mに入力し、ユーザモデル12Mから出力される「やりたいこと」に関する情報(回答データ)を取得する。なお、言動実行部13cは、ユーザモデル12Mから「やりたいこと」に関する情報が出力されたか否かに応じて、自端末10のユーザがやりたいと思っていることがあるか否かを判断する。上述した処理により、本実施形態の自端末10は、ユーザモデル12Mを用いて、自端末10のユーザが行きたい場所又はやりたいことを抽出し、ユーザに代わって行動し、行動した結果得られた情報を履歴情報として蓄積できる。 The user terminals 10 and 20 of this embodiment perform processing similar to the behavior processing shown in FIG. In this embodiment, the control unit 11 of the own terminal 10 executes a pseudo-outing action based on the user model 12M via the avatar of the own terminal 10 by the behavior execution unit 13c. Specifically, in step S61, the speech/behavior executing unit 13c of the terminal 10 determines whether or not there is a place that the user of the terminal 10 wants to go, using the user model 22M. For example, the behavior executing unit 13c inputs "a place you want to go" to the user model 12M as presentation data, and acquires information (response data) on the "place you want to go" output from the user model 12M. Note that the behavior executing unit 13c determines whether or not there is a place that the user of the terminal 10 wants to go, depending on whether or not the user model 12M outputs the information about the "place to go". . Also, in step S65, the behavior executing unit 13c of the terminal 10 determines whether or not the user of the terminal 10 wants to do something using the user model 22M. For example, the behavior executing unit 13c inputs "what you want to do" as presentation data to the user model 12M, and acquires information (response data) on "what you want to do" output from the user model 12M. Behavior execution unit 13c determines whether or not there is something that the user of terminal 10 wants to do, depending on whether or not information about "what he wants to do" is output from user model 12M. By the above-described processing, the own terminal 10 of the present embodiment uses the user model 12M to extract the place the user of the own terminal 10 wants to go or what the user wants to do, acts on behalf of the user, and obtains the result of the action. Information can be accumulated as history information.

本実施形態のユーザ端末10,20は、図13に示す言動履歴の再生処理と同様の処理を行う。これにより、ユーザ端末10,20は、図14に示すような履歴画面を表示し、履歴画面を介して、それぞれのユーザ端末10,20の言動実行部13c,23cが行った対話処理及び外出処理の再生指示を受け付ける。よって、自端末10のユーザに代わって自端末10のアバターが他端末20のユーザ又はアバターとの間で行った対話処理を再現することができ、自端末10のユーザは他端末20のユーザ又はアバターとの対話を擬似的に体験することができる。また、自端末10のアバターが擬似的に行った外出処理を再現することができ、自端末10のユーザは、アバターが実行した行動を辿ることができる。 The user terminals 10 and 20 of the present embodiment perform processing similar to the behavior history reproduction processing shown in FIG. As a result, the user terminals 10 and 20 display a history screen as shown in FIG. to receive a playback instruction. Therefore, the avatar of the own terminal 10 can reproduce the dialogue processing performed between the user of the other terminal 20 or the avatar on behalf of the user of the own terminal 10, and the user of the own terminal 10 can reproduce the user of the other terminal 20 or the avatar. You can simulate a dialogue with an avatar. In addition, it is possible to reproduce the out-of-home processing that the avatar of the terminal 10 performed in a pseudo manner, and the user of the terminal 10 can trace the actions performed by the avatar.

本実施形態においても、実施形態1と同様の効果が得られる。また本実施形態では、それぞれのユーザ端末10,20毎に学習したユーザモデル12M,22Mに基づいて、それぞれのユーザが行う可能性の高い対話内容及び行動内容を特定できる。よって、それぞれのユーザが行う可能性の高い対話内容の対話及び行動内容の行動を実現することにより、それぞれのユーザのアバターによって擬似的な対話及び行動を実現できる。 Also in this embodiment, the same effects as in the first embodiment can be obtained. Further, in this embodiment, based on the user models 12M and 22M learned for each of the user terminals 10 and 20, it is possible to specify the conversation content and action content that each user is likely to perform. Therefore, by realizing the dialogue of the dialogue content and the action of the action content that are highly likely to be performed by each user, it is possible to realize the pseudo-dialogue and action by the avatar of each user.

本実施形態において、自端末10が自端末10のユーザのユーザモデル12Mを記憶し、他端末20が他端末20のユーザのユーザモデル22Mを記憶し、それぞれの端末10,20の言動実行部13c,23cが、それぞれのユーザモデル12M,22Mに基づく言動処理を、それぞれの端末10,20のアバターを介して行う構成に限定されない。例えば、自端末10が、他端末20から他端末20のユーザのユーザモデル22Mを取得することにより、自端末10のユーザモデル12Mだけでなく、他端末20のユーザモデル22Mを記憶してもよい。このような構成によれば、自端末10が、自端末10のユーザモデル12Mに基づく言動処理を自端末10のアバターを介して行うと共に、他端末20のユーザモデル22Mに基づく言動処理を他端末20のアバターを介して行うことができる。よって、自端末10において、自端末10のアバターと他端末20のアバターとの間の対話処理を実行することができる。なお、この場合、自端末10のアバターと他端末20のアバターとの間で実行された対話処理の履歴情報を他端末20へ送信することにより、他端末20のユーザが後日対話内容を確認できる。また逆に、他端末20が、自端末10から自端末10のユーザモデル12Mを取得し、他端末20において、自端末10のアバターと他端末20のアバターとの間の対話処理を実行する構成としてもよい。 In this embodiment, the self-terminal 10 stores the user model 12M of the user of the self-terminal 10, the other terminal 20 stores the user model 22M of the user of the other terminal 20, and the behavior execution unit 13c of each of the terminals 10 and 20 , 23c perform speech and behavior processing based on the user models 12M and 22M via the avatars of the terminals 10 and 20, respectively. For example, by obtaining the user model 22M of the user of the other terminal 20 from the other terminal 20, the own terminal 10 may store not only the user model 12M of the own terminal 10 but also the user model 22M of the other terminal 20. . According to such a configuration, the self-terminal 10 performs speech and behavior processing based on the user model 12M of the self-terminal 10 via the avatar of the self-terminal 10, and performs speech and behavior processing based on the user model 22M of the other terminal 20. It can be done through 20 avatars. Therefore, in the own terminal 10, interactive processing between the avatar of the own terminal 10 and the avatar of the other terminal 20 can be executed. In this case, the user of the other terminal 20 can later check the contents of the dialogue by transmitting the history information of the dialogue process executed between the avatar of the own terminal 10 and the avatar of the other terminal 20 to the other terminal 20. . Conversely, the other terminal 20 acquires the user model 12M of the own terminal 10 from the own terminal 10, and in the other terminal 20, a dialogue process between the avatar of the own terminal 10 and the avatar of the other terminal 20 is executed. may be

本実施形態において、ユーザモデル12M,22Mは、ユーザ端末10,20の各ユーザに対して提示された提示データと、この提示データに対してユーザが行った回答データ及び実行したアプリケーションプログラムの実行データとを含む教師データを用いて学習された学習済みモデルであってもよい。この場合、ユーザモデルは、提示データが入力された場合に、入力された提示データに対応する回答データ及びアプリケーションプログラムの実行データを出力する。ここでの提示データは、例えば自端末10のユーザが自端末10を用いて行った行動に関する行動情報とし、回答データはこの行動情報に対応してユーザが行った処理(行動)に関する処理情報とし、実行データはこの行動情報に対応してユーザが実行(起動)したアプリケーションプログラムの情報とすることができる。 In this embodiment, the user models 12M and 22M are presented data presented to each user of the user terminals 10 and 20, response data given by the user to the presented data, and execution data of the executed application program. It may be a trained model learned using teacher data including and. In this case, when presentation data is input, the user model outputs response data corresponding to the input presentation data and application program execution data. The presentation data here is, for example, action information related to the action performed by the user of the terminal 10 using the terminal 10, and the response data is processing information related to the process (behavior) performed by the user in response to this action information. , the execution data can be information of an application program executed (started) by the user corresponding to this action information.

例えば、自端末10のユーザが、電子メール、LINEメッセージ、SNS等を介して会議のスケジュールに関する情報を取得した場合に、その後、自端末10を用いて会議室の使用を予約するための予約アプリ(アプリケーションプログラム)を実行して会議室の予約を行ったとする。この場合、会議のスケジュールに関する情報を取得したことを示す行動情報を提示データとし、予約アプリを用いて会議室の予約を行うことを示す処理情報を回答データとし、会議室の使用を予約するための予約アプリを実行データとすることができる。また、自端末10のユーザが、ネットワークN上の旅行の予約サイトを介して旅行の予約を行った場合に、その後、自端末10を用いてレストランの予約サイトを介したレストランの予約、又はオプショナルツアーの予約サイトを介したオプショナルツアーの申込を行ったとする。この場合、旅行の予約サイトを介して旅行の予約を行ったことを示す行動情報を提示データとし、予約サイトを介したレストランの予約又はオプショナルツアーの申込を行うことを示す処理情報を回答データとし、レストランの予約サイト又はオプショナルツアーの予約サイトにアクセスするためのブラウザを実行データとすることができる。このような提示データ、回答データ及び実行データを含む教師データを用いてユーザモデル12Mを学習させることにより、ユーザがある行動を行った後に行う可能性の高い次の行動(処理)を予測するユーザモデル12Mを生成できる。 For example, when the user of the own terminal 10 acquires information about the schedule of the meeting via e-mail, LINE message, SNS, etc., then a reservation application for reserving the use of the conference room using the own terminal 10 Suppose that (application program) is executed to reserve a conference room. In this case, to reserve the use of the conference room by using the action information indicating that the information on the schedule of the conference has been acquired as the presentation data, and the processing information indicating that the conference room is to be reserved using the reservation application as the response data. can be used as execution data. Further, when the user of the own terminal 10 makes a travel reservation through a travel reservation site on the network N, after that, the user of the own terminal 10 makes a restaurant reservation through the restaurant reservation site, or optionally Assume that a user applies for an optional tour via a tour reservation site. In this case, the action information indicating that a travel reservation has been made via the travel reservation site will be treated as presentation data, and the processing information indicating that a restaurant reservation or optional tour application will be made via the reservation site will be treated as response data. , a browser for accessing a restaurant reservation site or an optional tour reservation site. By making the user model 12M learn using teacher data including such presentation data, response data, and execution data, the user predicts the next action (process) that is highly likely to be performed after the user performs a certain action. A model 12M can be generated.

上述したように、過去に自端末10のユーザが自端末10を用いて行った行動に関する情報を提示データとし、この行動に対して、自端末10のユーザが更に行った行動(処理)に関する情報を回答データとし、ユーザが実行したアプリケーションプログラムの情報を実行データとする教師データを用いてユーザモデル12Mを学習させる。ユーザモデル12Mは、教師データに含まれる提示データを入力した場合に、教師データに含まれる回答データ及び実行データが出力されるように学習する。これにより、入力された行動情報(提示データ)に基づいて、自端末10のユーザが行う可能性の高い処理情報(回答データ)及びアプリケーションプログラムの情報(実行データ)を出力するように学習されたユーザモデル12Mが得られる。このようなユーザモデル12Mを用いることにより、自端末10の言動実行部13cは、自端末10のユーザがある行動を行った場合に、次に行う可能性の高い行動(処理)を予測して、対応するアプリケーションプログラムを実行することにより、自端末10のユーザの操作負担を軽減できる。言動実行部13cは、ユーザモデル12Mに基づいて実行したアプリケーションプログラムの実行結果を言動履歴DBに蓄積しておき、自端末10のユーザからの要求に応じて、蓄積した実行結果をスピーカ17又は表示部16を介して再現することができる。これにより、自端末10のユーザは、自端末10のアバター(言動実行部13c)がユーザモデル12Mに基づいて行った行動(処理)を後で確認することができる。 As described above, the presentation data is information about actions performed by the user of the terminal 10 in the past using the terminal 10, and information about actions (processes) performed by the user of the terminal 10 in response to this action. is answer data and the information of the application program executed by the user is used as execution data to learn the user model 12M. The user model 12M learns so that when the presentation data included in the teacher data is input, the answer data and execution data included in the teacher data are output. As a result, based on the input action information (presentation data), it is learned to output processing information (response data) and application program information (execution data) that are highly likely to be performed by the user of the terminal 10. A user model 12M is obtained. By using such a user model 12M, the behavior executing unit 13c of the own terminal 10 predicts the action (process) that is highly likely to be performed next when the user of the own terminal 10 performs a certain action. , the operation load on the user of the terminal 10 can be reduced by executing the corresponding application program. The behavior execution unit 13c accumulates execution results of application programs executed based on the user model 12M in the behavior history DB, and displays the accumulated execution results through the speaker 17 or the like in response to a request from the user of the terminal 10. It can be reproduced via the unit 16 . As a result, the user of the terminal 10 can later confirm the action (process) performed by the avatar (the behavior execution unit 13c) of the terminal 10 based on the user model 12M.

(実施形態4)
それぞれのユーザ端末10,20のユーザ毎に学習したユーザモデルをサーバに記憶し、サーバにおいて、それぞれのユーザモデルに基づく言動処理が実行される情報処理システムについて説明する。本実施形態の情報処理システムは、実施形態3の情報処理システムにおけるユーザ端末10,20のほかにサーバ40を備える。図19はサーバ40の構成例を示すブロック図である。サーバ40は、制御部41、記憶部42、処理部43、通信部44、入力部45、表示部46、読み取り部47等を含み、これらの各部はバスを介して相互に接続されている。サーバ40が有する各構成部41~47は、自端末10における各構成部11~16,19と同様の構成であるので詳細については説明を省略する。
(Embodiment 4)
An information processing system in which user models learned for each user of user terminals 10 and 20 are stored in a server, and behavior processing based on each user model is executed in the server will be described. The information processing system of this embodiment includes a server 40 in addition to the user terminals 10 and 20 in the information processing system of the third embodiment. FIG. 19 is a block diagram showing a configuration example of the server 40. As shown in FIG. The server 40 includes a control section 41, a storage section 42, a processing section 43, a communication section 44, an input section 45, a display section 46, a reading section 47, etc. These sections are interconnected via a bus. The configuration units 41 to 47 of the server 40 have the same configuration as the configuration units 11 to 16 and 19 of the own terminal 10, so detailed description thereof will be omitted.

サーバ40の記憶部42は、ユーザ端末10,20のそれぞれに対応して設けられた複数のユーザモデル42M(図19では3つの第1ユーザモデル42M1、第2ユーザモデル42M2、第3ユーザモデル42M3)と、言動履歴DB42aとを記憶する。言動履歴DB42aは、例えばユーザ端末10,20のそれぞれに対応して設けられてもよく、この場合、図4Bに示す構成と同様の構成を有する。また言動履歴DB42aは、図4Bに示す構成に、更にユーザID列を有する構成でもよく、この場合、ユーザ端末10,20のそれぞれに割り当てられたユーザIDに対応付けて、それぞれのユーザに対応する履歴情報が蓄積される。 The storage unit 42 of the server 40 stores a plurality of user models 42M (three first user models 42M1, second user models 42M2, and third user models 42M3 in FIG. ) and the behavior history DB 42a. The behavior history DB 42a may be provided for each of the user terminals 10 and 20, for example, and in this case, has the same configuration as that shown in FIG. 4B. 4B, the behavior history DB 42a may also have a user ID column. History information is accumulated.

また、サーバ40の処理部43は対話処理部43a及び言動実行部43bを有する。対話処理部43a及び言動実行部43bは、実施形態3の自端末10における対話処理部13a及び言動実行部13cと同様の処理を行う。なお、サーバ40の言動実行部43bは、対話処理部43aを用いて、複数のユーザモデル42Mに基づいて複数のアバター(複数のユーザ端末10,20のアバター)間での対話を行う。図20は、サーバ40による言動処理の手順例を示すフローチャートである。以下の処理はサーバ40の記憶部42に記憶してある制御プログラム42Pに従って制御部41によって実行される。 Further, the processing unit 43 of the server 40 has a dialogue processing unit 43a and a behavior execution unit 43b. The dialogue processing unit 43a and the behavior execution unit 43b perform the same processing as the dialogue processing unit 13a and the behavior execution unit 13c in the own terminal 10 of the third embodiment. Note that the behavior executing unit 43b of the server 40 uses the dialogue processing unit 43a to have a dialogue between a plurality of avatars (avatars of the plurality of user terminals 10 and 20) based on a plurality of user models 42M. FIG. 20 is a flow chart showing an example of a procedure of behavior processing by the server 40. As shown in FIG. The following processing is executed by the control unit 41 according to the control program 42P stored in the storage unit 42 of the server 40. FIG.

サーバ40の言動実行部43bは、それぞれのユーザモデル42Mに基づいて、それぞれ対応するユーザのアバターが、他のアバターとの対話を要求しているか否かを判断する(S101)。例えば言動実行部43bは、それぞれのユーザモデル42Mに対して、「対話したい相手がいますか」のようなメッセージを提示データとして入力し、ユーザモデル42Mから、対話したい相手に関する情報(回答データ)が出力されるか否かに応じて、あるアバターが他のアバターとの対話を要求しているか否かを判断する。例えばユーザモデル42Mから、「対話したい相手がいます」、「○○さんと対話したいです」のような回答データが出力された場合、言動実行部43bは、このユーザモデル42Mに対応するアバターからの他のアバターとの対話要求を受け付ける。 The behavior executing unit 43b of the server 40 determines whether or not the corresponding user's avatar requests interaction with another avatar based on each user model 42M (S101). For example, the behavior execution unit 43b inputs a message such as "Do you have a partner with whom you want to have a dialogue?" Depending on whether or not it is output, it is determined whether or not an avatar requests interaction with another avatar. For example, when the user model 42M outputs answer data such as "There is someone I want to talk to" and "I want to talk to Mr. Accepts requests for interaction with other avatars.

言動実行部43bは、対話要求を受け付けていないと判断した場合(S101:NO)、対話要求を受け付けるまで待機する。言動実行部43bは、対話要求を受け付けたと判断した場合(S101:YES)、対話要求してきたユーザモデル42M(第1対話相手)を特定し(S102)、第1対話相手が対話したい第2対話相手を特定する(S103)。ここでは、言動実行部43bは、対話したい相手に関する回答データを出力したユーザモデル42Mを第1対話相手に特定し、第1対話相手のユーザモデル42Mから出力された回答データによって指定された対話相手を第2対話相手に特定する。 When the behavior executing unit 43b determines that the dialogue request has not been received (S101: NO), it waits until the dialogue request is received. When the speech execution unit 43b determines that the dialogue request has been received (S101: YES), it identifies the user model 42M (first dialogue partner) that has requested the dialogue (S102), and selects the second dialogue with which the first dialogue partner wants to have a dialogue. The other party is specified (S103). Here, the behavior executing unit 43b specifies the user model 42M that outputs the answer data regarding the partner with whom the user wishes to have a dialogue as the first dialogue partner, and the dialogue partner specified by the answer data output from the user model 42M of the first dialogue partner. to be the second interlocutor.

次に言動実行部43bは、特定した第1対話相手から第2対話相手への対話情報を生成する(S104)。言動実行部43bは、例えば「話したいことは何ですか」のようなメッセージを提示データとして、第1対話相手のユーザモデル42Mに入力し、ユーザモデル12Mから出力される返答情報(回答データ)に基づいて、第1対話相手からの対話情報を生成する。言動実行部43bは、生成した対話情報に対する第2対話相手からの返答情報を生成する(S105)。ここでは、言動実行部43bは、生成した第1対話相手からの対話情報を提示データとして、第2対話相手のユーザモデル42Mに入力し、ユーザモデル42Mから出力される返答情報(回答データ)に基づいて、第2対話相手から第1対話相手への返答情報を生成する。言動実行部43bは、ステップS104及びS105で生成した第1対話相手から第2対話相手への対話情報と、第2対話相手から第1対話相手への返答情報とを、第1対話相手と第2対話相手との間の対話処理における履歴情報として、例えば第1対話相手及び第2対話相手のユーザ(ユーザID)に対応付けて言動履歴DB42aに記憶する(S106)。 Next, the behavior execution unit 43b generates dialogue information from the specified first dialogue partner to the second dialogue partner (S104). The behavior executing unit 43b inputs a message such as "What do you want to talk about?" to generate dialogue information from the first dialogue partner. The behavior executing unit 43b generates response information from the second dialogue partner to the generated dialogue information (S105). Here, the behavior executing unit 43b inputs the generated dialogue information from the first dialogue partner as presentation data to the user model 42M of the second dialogue partner, and converts the response information (response data) output from the user model 42M into Based on this, the reply information from the second dialogue partner to the first dialogue partner is generated. The speech/behavior execution unit 43b transmits the dialogue information generated in steps S104 and S105 from the first dialogue partner to the second dialogue partner and the reply information from the second dialogue partner to the first dialogue partner, and transmits the information to the first dialogue partner and the first dialogue partner. As history information in dialogue processing with two dialogue partners, for example, it is stored in the behavior history DB 42a in association with the users (user IDs) of the first and second dialogue partners (S106).

言動実行部43bは、第1対話相手と第2対話相手との間の対話が終了したか否かを判断しており(S107)、終了していないと判断した場合(S107:NO)、ステップS104の処理に戻り、ステップS105で生成した第2対話相手からの対話情報(返答情報)に対する第1対話相手からの返答情報を生成する(S104)。ここでは、言動実行部43bは、第2対話相手からの対話情報(返答情報)を提示データとして、第1対話相手のユーザモデル42Mに入力し、ユーザモデル42Mから出力される返答情報(回答データ)に基づいて、第1対話相手から第2対話相手への返答情報を生成する。言動実行部43bは、第1対話相手と第2対話相手との間の対話が終了するまでステップS104~S106の処理を繰り返す。即ち、第1対話相手のユーザモデル42Mから出力された対話情報を第2対話相手のユーザモデル42Mに入力し、第2対話相手のユーザモデル42Mから出力された対話情報を第1対話相手のユーザモデル42Mに入力する。これにより、第1対話相手のユーザモデル42Mと、第2対話相手のユーザモデル42Mとの間における対話を行うことができ、また対話の結果を言動履歴DB42aに蓄積することができる。 The behavior execution unit 43b determines whether or not the dialogue between the first dialogue partner and the second dialogue partner has ended (S107). Returning to the process of S104, response information from the first dialogue partner is generated in response to the dialogue information (response information) from the second dialogue partner generated in step S105 (S104). Here, the behavior executing unit 43b inputs the dialogue information (response information) from the second dialogue partner as presentation data to the user model 42M of the first dialogue partner, and the reply information (response data) output from the user model 42M. ) to generate reply information from the first dialogue partner to the second dialogue partner. The behavior execution unit 43b repeats the processing of steps S104 to S106 until the dialogue between the first dialogue partner and the second dialogue partner is completed. That is, the dialogue information output from the user model 42M of the first dialogue partner is input to the user model 42M of the second dialogue partner, and the dialogue information output from the user model 42M of the second dialogue partner is input to the user model 42M of the first dialogue partner. Input to model 42M. As a result, a dialogue can be conducted between the user model 42M of the first dialogue partner and the user model 42M of the second dialogue partner, and the result of the dialogue can be accumulated in the behavior history DB 42a.

言動実行部43bは、第1対話相手と第2対話相手との間の対話が終了したと判断した場合(S107:YES)、上述した処理を終了する。なお、言動実行部43bは、第1対話相手のユーザモデル42M又は第2対話相手のユーザモデル42Mから出力される回答データ(返答情報)に基づいて対話の終了を判定するが、例えば所定回数の対話の往復が行われた場合に対話を終了してもよい。 When the behavior execution unit 43b determines that the dialogue between the first dialogue partner and the second dialogue partner has ended (S107: YES), the above-described process ends. Note that the speech/behavior execution unit 43b determines the end of the dialogue based on the response data (response information) output from the user model 42M of the first dialogue partner or the user model 42M of the second dialogue partner. A dialogue may end when a round trip of the dialogue has taken place.

本実施形態において、サーバ40の言動実行部43bは、実施形態3の自端末10の言動実行部13cと同様に、それぞれのユーザモデル42Mに基づいて、図12に示す言動処理と同様の処理を行うことができる。即ち、言動実行部43bは、それぞれのユーザモデル42Mに対応するユーザが行きたい場所又はやりたいことを特定し、それぞれのアバターに擬似的な外出行為を行わせることができる。具体的には、ステップS61においてサーバ40の言動実行部43bは、それぞれのユーザモデル42Mを用いて、それぞれのユーザが行きたいと思っている場所があるか否かを判断する。例えば言動実行部43bは、「行きたい場所」を提示データとしてユーザモデル42Mに入力し、ユーザモデル42Mから出力される「行きたい場所」に関する情報(回答データ)を取得することにより、このユーザモデル42Mに対応するユーザが行きたいと思っている場所を取得する。また、ステップS65においてサーバ40の言動実行部43bは、それぞれのユーザモデル42Mを用いて、それぞれのユーザがやりたいと思っていることがあるか否かを判断する。例えば言動実行部43bは、「やりたいこと」を提示データとしてユーザモデル42Mに入力し、ユーザモデル42Mから出力される「やりたいこと」に関する情報(回答データ)を取得することにより、このユーザモデル42Mに対応するユーザがやりたいと思っていることを取得する。上述した処理により、サーバ40は、それぞれのユーザモデル42Mに基づいて、それぞれのユーザが行きたい場所又はやりたいことを抽出できる。また、サーバ40の言動実行部43bは、それぞれのユーザが行きたい場所又はやりたいことに関する各種の情報をネットワークN経由で検索して収集する。そして言動実行部43bは、それぞれ収集した情報を、ユーザモデル42Mに対応するそれぞれのユーザ(ユーザID)に対応付けて言動履歴DB42aに記憶する。これにより、それぞれのユーザのアバターが、ユーザに代わって擬似的に行った行動の結果を履歴情報として蓄積できる。 In this embodiment, the behavior execution unit 43b of the server 40 performs the same behavior processing as the behavior processing shown in FIG. It can be carried out. In other words, the behavior executing unit 43b can specify a place where the user corresponding to each user model 42M wants to go or what the user wants to do, and can cause each avatar to perform a pseudo-outing action. Specifically, in step S61, the behavior executing unit 43b of the server 40 uses each user model 42M to determine whether or not there is a place that each user wants to go. For example, the speech and behavior execution unit 43b inputs the "place you want to go" to the user model 42M as presentation data, and acquires information (response data) on the "place you want to go" output from the user model 42M. Acquire the place where the user corresponding to 42M wants to go. Also, in step S65, the behavior executing unit 43b of the server 40 uses each user model 42M to determine whether or not each user wants to do something. For example, the behavior execution unit 43b inputs "what you want to do" as presentation data to the user model 42M, acquires information (response data) on "what you want to do" output from the user model 42M, and makes this user model 42M Get what the corresponding user wants to do. By the above-described processing, the server 40 can extract places that each user wants to go or things that each user wants to do, based on each user model 42M. In addition, the behavior executing unit 43b of the server 40 retrieves and collects various kinds of information about places the users want to go or things they want to do via the network N. FIG. Then, the behavior execution unit 43b associates each collected information with each user (user ID) corresponding to the user model 42M and stores the collected information in the behavior history DB 42a. Thereby, each user's avatar can accumulate the result of the pseudo action performed on behalf of the user as history information.

上述した構成により、本実施形態では、サーバ40がそれぞれのユーザ端末10,20におけるアバター間の対話処理を行い、また、それぞれのアバターによる各種の行動を行い、行った結果を履歴情報として蓄積する。そしてサーバ40は、それぞれのユーザ端末10,20からの要求に応じて、それぞれのユーザに対応付けて蓄積した履歴情報をユーザ端末10,20へ提供する。よって、ユーザ端末10,20の各ユーザは、サーバ40において自身のアバターが行った対話処理及び各種の行動を把握できる。従って、本実施形態においても、それぞれのユーザ端末10,20のユーザは、自身に代わって自身のアバターが他のアバターとの間で行った対話を擬似的に体験することができ、また、自身のアバターが擬似的に行った外出処理を辿ることができる。 With the above-described configuration, in the present embodiment, the server 40 performs interactive processing between avatars on the user terminals 10 and 20, performs various actions by each avatar, and accumulates the results as history information. . Then, the server 40 provides the user terminals 10 and 20 with history information accumulated in association with the respective users in response to requests from the respective user terminals 10 and 20 . Therefore, each user of the user terminals 10 and 20 can grasp the interactive processing and various actions performed by his or her avatar on the server 40 . Therefore, in the present embodiment as well, the users of the user terminals 10 and 20 can experience simulated interactions between their own avatars and other avatars on behalf of themselves. You can trace the outing process that the avatar performed in a pseudo manner.

本実施形態において、サーバ40の記憶部42に、各ユーザのユーザモデル42Mを記憶する代わりに、実施形態1における各ユーザの固有情報DB12aを記憶しておき、各ユーザの固有情報DB12aに基づく言動処理を行う構成としてもよい。 In this embodiment, instead of storing the user model 42M of each user in the storage unit 42 of the server 40, each user's unique information DB 12a in the first embodiment is stored, and behavior based on each user's unique information DB 12a is stored. It may be configured to perform processing.

上述した実施形態1-2では、自端末10のユーザ又はアバターと、他端末20のユーザ又はアバターとが対話する際に、自端末10と他端末20との間で対話情報の送受信が行われるが、このような構成に限定されない。例えば、自端末10と他端末20との通信を中継するサーバを備え、サーバを介して自端末10と他端末20との間で対話情報の送受信が行われてもよい。 In the above-described embodiment 1-2, when the user or avatar of the own terminal 10 and the user or avatar of the other terminal 20 interact, transmission and reception of dialogue information is performed between the own terminal 10 and the other terminal 20. However, it is not limited to such a configuration. For example, a server that relays communication between the own terminal 10 and the other terminal 20 may be provided, and communication information may be transmitted and received between the own terminal 10 and the other terminal 20 via the server.

今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。 The embodiments disclosed this time are illustrative in all respects and should be considered not restrictive. The scope of the present invention is indicated by the scope of the claims rather than the meaning described above, and is intended to include all modifications within the scope and meaning equivalent to the scope of the claims.

10,20 ユーザ端末(情報処理装置)
11,21 制御部
12,22 記憶部
13,23 処理部
15,25 入力部
16,26 表示部
17,27 スピーカ
18,28 マイク
40 サーバ
41 制御部
42 記憶部
43 処理部
12a,22a 固有情報DB
12c,22c 言動履歴DB
13a,23a 対話処理部
13b,23b 固有情報収集部
13c,23c 言動実行部
13d,23d 履歴出力部
12M,42M ユーザモデル
42a 言動履歴DB
43a 対話処理部
43b 言動実行部
10, 20 user terminal (information processing device)
11, 21 control unit 12, 22 storage unit 13, 23 processing unit 15, 25 input unit 16, 26 display unit 17, 27 speaker 18, 28 microphone 40 server 41 control unit 42 storage unit 43 processing unit 12a, 22a unique information DB
12c, 22c Behavior history DB
13a, 23a Dialogue processing unit 13b, 23b Unique information collection unit 13c, 23c Behavior execution unit 13d, 23d History output unit 12M, 42M User model 42a Behavior history DB
43a Dialogue processing unit 43b Behavior execution unit

Claims (12)

ユーザの言動に基づいてユーザ固有の情報を収集し、
収集した前記ユーザ固有の情報に基づいて、前記ユーザが対話したい対話相手及び対話内容、前記ユーザが行きたい場所、又は、前記ユーザがやりたいことを特定し、
前記対話相手及び対話内容を特定した場合、前記対話相手又は前記対話相手のアバターとの対話を、前記ユーザに対応して設定されたアバターを介して、前記ユーザ固有の情報に基づいて実行し、
前記ユーザが行きたい場所を特定した場合、前記アバターを介して、前記ユーザ固有の情報に基づいて前記場所に関する情報を収集して前記場所への外出行為を擬似的に実行し、
前記ユーザがやりたいことを特定した場合、前記アバターを介して、前記ユーザ固有の情報に基づいて前記やりたいことに関する情報を収集して前記やりたいことを擬似的に実行し、
前記ユーザ固有の情報に基づいて前記アバターを介して実行された言動の実行結果を出力する
処理をコンピュータに実行させるプログラム。
collect user-specific information based on user behavior;
Based on the collected user-specific information, identify a dialogue partner and dialogue content with which the user wants to interact, a place where the user wants to go, or what the user wants to do,
When the dialogue partner and dialogue content are specified, dialogue with the dialogue partner or the avatar of the dialogue partner is performed based on the user-specific information via the avatar set corresponding to the user,
when the user specifies a place to go, collects information about the place based on the user-specific information via the avatar and simulates going out to the place;
when the user specifies what the user wants to do, collects information about the desired thing through the avatar based on the user-specific information, and simulates the desired thing,
A program that causes a computer to execute a process of outputting an execution result of speech and behavior executed via the avatar based on the user-specific information.
前記ユーザに対応するアバターを介して実行した、前記ユーザ固有の情報に基づく言動の実行結果を記憶部に記憶し、
前記ユーザの要求に応じて、記憶した前記言動の実行結果を出力する
処理を前記コンピュータに実行させる請求項1に記載のプログラム。
storing in a storage unit execution results of speech and behavior based on the user-specific information executed via the avatar corresponding to the user;
2. The program according to claim 1, which causes the computer to execute a process of outputting an execution result of the stored behavior in response to a request from the user.
他のユーザに対応して設定された他のアバターに係る画像を表示部に表示し、
前記他のアバターとの対話内容を受け付け、
受け付けた前記対話内容を前記他のアバターに係る端末へ出力し、
前記他のアバターに係る端末から前記他のアバターからの対話内容を取得し、
取得した前記他のアバターからの対話内容を出力する
処理を前記コンピュータに実行させる請求項1又は2に記載のプログラム。
displaying on the display unit an image related to another avatar set corresponding to another user;
Receiving the content of the dialogue with the other avatar,
outputting the received dialogue content to a terminal associated with the other avatar;
Acquiring dialogue content from the other avatar from a terminal associated with the other avatar;
3. The program according to claim 1 or 2, which causes the computer to execute a process of outputting the acquired dialogue content from the other avatar.
他のユーザ又は他のユーザに対応する他のアバターとの対話の実行要求を受け付け、
実行要求を受け付けた前記他のユーザ又は前記他のアバターとの対話を、前記ユーザ固有の情報に基づいて、前記ユーザに対応するアバターを介して実行し、
実行結果を出力する
処理を前記コンピュータに実行させる請求項1から3までのいずれかひとつに記載のプログラム。
Receiving a request to execute a dialogue with another user or another avatar corresponding to another user,
interacting with the other user or the other avatar that has received the execution request, based on the user-specific information, through the avatar corresponding to the user;
4. The program according to any one of claims 1 to 3, which causes the computer to execute a process of outputting an execution result.
所定の専門家又は所定の専門家に対応する専門家アバターとの対話の実行要求を受け付け、
実行要求を受け付けた前記所定の専門家又は前記専門家アバターとの対話を、前記ユーザ固有の情報に基づいて、前記ユーザに対応するアバターを介して実行し、
実行結果を出力する
処理を前記コンピュータに実行させる請求項1から4までのいずれかひとつに記載のプログラム。
Accepting a request to execute a dialogue with a predetermined expert or an expert avatar corresponding to a predetermined expert,
interacting with the predetermined expert or the expert avatar that received the execution request, based on the user-specific information, through the avatar corresponding to the user;
5. The program according to any one of claims 1 to 4, which causes the computer to execute a process of outputting an execution result.
将来に生じる可能性のあるイベントに係る情報の取得を、前記ユーザ固有の情報に基づいて、前記ユーザに対応するアバターを介して実行し、
前記ユーザに対応するアバターを介して取得した前記イベントに係る情報を出力する
処理を前記コンピュータに実行させる請求項1から5までのいずれかひとつに記載のプログラム。
Acquisition of information related to events that may occur in the future is performed via an avatar corresponding to the user based on the user-specific information,
The program according to any one of claims 1 to 5, which causes the computer to execute a process of outputting information related to the event acquired via the avatar corresponding to the user.
前記ユーザの生体情報を取得し、
取得した前記生体情報に基づいて判定される前記ユーザの心理状態がリラックス状態である場合に、前記ユーザ固有の情報を収集する
処理を前記コンピュータに実行させる請求項1から6までのいずれかひとつに記載のプログラム。
obtaining biometric information of the user;
7. The method according to any one of claims 1 to 6, wherein the computer is caused to execute a process of collecting information specific to the user when the psychological state of the user determined based on the acquired biological information is in a relaxed state. program as described.
前記ユーザの発話内容に基づいて前記ユーザ固有の情報を収集する
請求項1から7までのいずれかひとつに記載のプログラム。
The program according to any one of claims 1 to 7, wherein the user-specific information is collected based on the user's utterance content.
収集した前記ユーザ固有の情報に基づいて、商品の注文情報を所定端末へ出力する処理を、前記ユーザに対応するアバターを介して実行する
処理を前記コンピュータに実行させる請求項1から8までのいずれかひとつに記載のプログラム。
9. Any one of claims 1 to 8, wherein the computer executes a process of outputting product order information to a predetermined terminal based on the collected user-specific information via an avatar corresponding to the user. Program described in one.
収集した前記ユーザ固有の情報に基づいて、購買すべき商品の抽出を、前記ユーザに対応するアバターを介して実行し、
前記ユーザに対応するアバターを介して抽出した商品に関する情報を出力し、
前記商品に対する購買許可を受け付けた後に、前記商品の注文情報を所定端末へ出力する処理を、前記ユーザに対応するアバターを介して実行する
処理を前記コンピュータに実行させる請求項1から9までのいずれかひとつに記載のプログラム。
Based on the collected user-specific information, a product to be purchased is extracted via an avatar corresponding to the user,
outputting information about the product extracted via the avatar corresponding to the user;
10. The method according to any one of claims 1 to 9, wherein the computer executes a process of outputting the order information of the product to a predetermined terminal via an avatar corresponding to the user after receiving permission to purchase the product. Program described in one.
前記ユーザ固有の情報に基づいて実行された言動の実行結果に係る情報を表示部に表示し、
表示した情報に基づいて、いずれかの実行結果に対する出力要求を受け付け、
受け付けた実行結果を出力する
処理を前記コンピュータに実行させる請求項1から10までのいずれかひとつに記載のプログラム。
displaying, on a display unit, information related to execution results of speech and behavior executed based on the user-specific information;
Accepts an output request for any of the execution results based on the displayed information,
The program according to any one of claims 1 to 10, which causes the computer to execute a process of outputting the received execution result.
請求項1から11までのいずれかひとつに記載のプログラムを実行する情報処理装置。 An information processing apparatus that executes the program according to any one of claims 1 to 11.
JP2019064045A 2019-03-28 2019-03-28 Program and information processing device Active JP7307576B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019064045A JP7307576B2 (en) 2019-03-28 2019-03-28 Program and information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019064045A JP7307576B2 (en) 2019-03-28 2019-03-28 Program and information processing device

Publications (2)

Publication Number Publication Date
JP2020166359A JP2020166359A (en) 2020-10-08
JP7307576B2 true JP7307576B2 (en) 2023-07-12

Family

ID=72714436

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019064045A Active JP7307576B2 (en) 2019-03-28 2019-03-28 Program and information processing device

Country Status (1)

Country Link
JP (1) JP7307576B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023082970A (en) * 2021-12-03 2023-06-15 株式会社ビデオリサーチ expert answer system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003131997A (en) 2001-10-22 2003-05-09 Sony Corp Terminal device, communication method and communication program
JP2017224190A (en) 2016-06-16 2017-12-21 株式会社オルツ Artificial intelligence system for supporting communication
WO2018127811A1 (en) 2017-01-06 2018-07-12 Platform Orthopedic Solutions Inc. System, platform and method for personalized shopping using an automated shopping assistant
WO2018142686A1 (en) 2017-01-31 2018-08-09 ソニー株式会社 Information processing device, information processing method, and program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003131997A (en) 2001-10-22 2003-05-09 Sony Corp Terminal device, communication method and communication program
JP2017224190A (en) 2016-06-16 2017-12-21 株式会社オルツ Artificial intelligence system for supporting communication
WO2018127811A1 (en) 2017-01-06 2018-07-12 Platform Orthopedic Solutions Inc. System, platform and method for personalized shopping using an automated shopping assistant
WO2018142686A1 (en) 2017-01-31 2018-08-09 ソニー株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP2020166359A (en) 2020-10-08

Similar Documents

Publication Publication Date Title
US11367435B2 (en) Electronic personal interactive device
US10146882B1 (en) Systems and methods for online matching using non-self-identified data
US9965553B2 (en) User agent with personality
US10559215B2 (en) Education reward system and method
KR102372976B1 (en) Method for providing cognitive reinforcement training game
JP7307576B2 (en) Program and information processing device
JP6342095B1 (en) Health management system, health management method, program, and recording medium
JP2006235772A (en) Data collection analysis display system
JP2020113186A (en) Mental training system and program
JP7418975B2 (en) information processing equipment
Kolasinska et al. Co-creating design opportunities for social technology in the context of dementia
JP7290977B2 (en) Program and information processing device
KR20210150988A (en) Apparatus and method for acquiring of vitality quotient
JP7360855B2 (en) Information processing method, program and information processing device
Pradana et al. Imparting otsukaresama: Designing technology to support interpersonal emotion regulation
JP2017168054A (en) Information processing device and information processing method
WO2023149562A1 (en) Operation system and operation method for virtual space or online meeting system
US20230099519A1 (en) Systems and methods for managing stress experienced by users during events
JP2022127234A (en) Information processing method, information processing system, and program
JPWO2018051596A1 (en) Information processing device
JP6824146B2 (en) Evaluation device, method and program
Magee et al. Automatically generating online social network messages to combat social isolation of people with disabilities
JP2024060283A (en) Communication systems and programs to support people with developmental disabilities
Koning Reducing loneliness in seniors using an automated calling system for activity invitation
JP2023087483A (en) Virtual assistant device and program for virtual assistant device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220307

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230630

R150 Certificate of patent or registration of utility model

Ref document number: 7307576

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150