JP2024052539A - Information processing system, control method, and server device - Google Patents

Information processing system, control method, and server device Download PDF

Info

Publication number
JP2024052539A
JP2024052539A JP2023129811A JP2023129811A JP2024052539A JP 2024052539 A JP2024052539 A JP 2024052539A JP 2023129811 A JP2023129811 A JP 2023129811A JP 2023129811 A JP2023129811 A JP 2023129811A JP 2024052539 A JP2024052539 A JP 2024052539A
Authority
JP
Japan
Prior art keywords
user
information
terminal device
character
users
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023129811A
Other languages
Japanese (ja)
Inventor
新一 吉野
義礎 工藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2022158666A external-priority patent/JP7335572B1/en
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2023129811A priority Critical patent/JP2024052539A/en
Priority to US18/373,835 priority patent/US20240106778A1/en
Publication of JP2024052539A publication Critical patent/JP2024052539A/en
Pending legal-status Critical Current

Links

Images

Abstract

【課題】ユーザに煩雑な操作を行わせることなく、他ユーザに提供される情報を決定するユーザインターフェースを向上させる情報処理システム、制御方法及びサーバ装置を提供する。【解決手段】情報処理システムが備える一又は複数のコンピュータプロセッサは、第1ユーザを示す第1オブジェクトを含む動画の表示に関する情報を、第1ユーザとは異なるユーザの端末装置に送信し、第1ユーザ及び一又は複数の第2ユーザを含むユーザグループを設定し、第1オブジェクトに関する関連画像を複数含むグループの中から第1ユーザによって選択された関連画像の表示に関する情報を、ユーザグループに含まれる第2ユーザの端末装置に送信し、第1ユーザによる指示に応じて、第1ユーザを示す第1オブジェクトと、一又は複数の第2ユーザのうちの少なくとも一の第2ユーザを示す第2オブジェクトとを含む新たな関連画像をグループに含めること、を実行する。【選択図】図2[Problem] To provide an information processing system, a control method, and a server device that improve a user interface for determining information to be provided to other users without requiring a user to perform complicated operations. [Solution] One or more computer processors included in the information processing system execute the following: transmitting information relating to the display of a video including a first object representing a first user to a terminal device of a user different from the first user; setting a user group including the first user and one or more second users; transmitting information relating to the display of a related image selected by the first user from a group including a plurality of related images relating to the first object to a terminal device of a second user included in the user group; and, in response to an instruction from the first user, including a new related image including a first object representing the first user and a second object representing at least one second user of the one or more second users in the group. [Selected Figure] Figure 2

Description

本明細書で開示された実施形態は、情報処理システム、制御方法、及びサーバ装置に関する。 The embodiments disclosed in this specification relate to an information processing system, a control method, and a server device.

従来から、ユーザによる端末装置の操作によって入力されたテキスト情報又は画像情報等の入力情報を、他ユーザの端末装置に送信する機能を実現するインスタントメッセンジャー(Instant Messenger)が知られている。近年のインスタントメッセンジャーでは、ユーザに対応するアバター等のキャラクタオブジェクトが用いられた画像情報が、入力情報としてユーザの端末装置から他ユーザの端末装置に送信され得る。 Conventionally, instant messengers have been known that realize a function of transmitting input information, such as text information or image information, input by a user operating a terminal device to the terminal device of another user. In recent instant messengers, image information using a character object, such as an avatar, corresponding to the user can be transmitted as input information from the user's terminal device to the terminal device of another user.

例えば、特許文献1には、ユーザの端末装置から他ユーザの端末装置に送信可能な画像情報の一例としてアバタースタンプが用いられる情報処理システムについて記載されている。特許文献1に記載された情報処理システムでは、ユーザは、自身が作成及び登録したアバター等のオブジェクトに対応する画像情報(自作アバタースタンプ等)を用いることができる。このように、特許文献1に記載された情報処理システムにおいて、ユーザは、自身を示すオブジェクトに対応する画像を用いて他ユーザとのコミュニケーションを行うことにより、自身に対応するオブジェクトを他ユーザにアピールすることが可能となる。 For example, Patent Document 1 describes an information processing system in which an avatar stamp is used as an example of image information that can be transmitted from a user's terminal device to another user's terminal device. In the information processing system described in Patent Document 1, a user can use image information (such as a self-made avatar stamp) that corresponds to an object such as an avatar that the user has created and registered. In this way, in the information processing system described in Patent Document 1, a user can appeal to other users about an object that corresponds to the user by communicating with the other users using an image that corresponds to an object that represents the user.

特開2019-91363号公報JP 2019-91363 A

特許文献1に記載された情報処理システムでは、ユーザに対応する情報の候補を豊富にするためにユーザ自身が情報を生成するという煩雑な操作を行う必要があり、ユーザの情報処理システムの利用促進を促すことができなくなるという問題があった。また、特許文献1に記載された情報処理システムでは、ユーザに対応する情報の候補が多い場合、ユーザにとって、他ユーザに提供したい情報の選択操作が煩雑になってしまい、ユーザの情報処理システムの利用促進を促すことができなくなるという問題があった。 In the information processing system described in Patent Document 1, in order to enrich the number of information candidates corresponding to a user, the user himself has to perform the cumbersome operation of generating information, which poses a problem in that it is not possible to encourage users to use the information processing system more effectively. In addition, in the information processing system described in Patent Document 1, when there are many information candidates corresponding to a user, the operation of selecting information that the user wants to provide to other users becomes cumbersome, which poses a problem in that it is not possible to encourage users to use the information processing system more effectively.

本明細書で開示された情報処理システム、制御方法、及びサーバ装置は、ユーザに煩雑な操作を行わせることなく、他ユーザに提供される情報を決定するユーザインターフェースを向上させることを可能とする。 The information processing system, control method, and server device disclosed in this specification make it possible to improve the user interface that determines the information to be provided to other users without requiring the user to perform complicated operations.

開示された情報処理システムは、一又は複数のコンピュータプロセッサを備える情報処理システムであって、一又は複数のコンピュータプロセッサが、第1ユーザを示す第1オブジェクトを含む動画の表示に関する情報を、第1ユーザとは異なるユーザの端末装置に送信し、第1ユーザ及び一又は複数の第2ユーザを含むユーザグループを設定し、第1オブジェクトに関する関連画像を複数含むグループの中から第1ユーザによって選択された関連画像の表示に関する情報を、ユーザグループに含まれる第2ユーザの端末装置に送信すること、を実行し、一又は複数のコンピュータプロセッサが、第1ユーザによる指示に応じて、第1ユーザを示す第1オブジェクトと、一又は複数の第2ユーザのうちの少なくとも一の第2ユーザを示す第2オブジェクトとを含む新たな関連画像をグループに含めること、を実行する。 The disclosed information processing system is an information processing system including one or more computer processors, in which the one or more computer processors execute the following: transmitting information relating to the display of a video including a first object representing a first user to a terminal device of a user different from the first user; setting a user group including the first user and one or more second users; transmitting information relating to the display of a related image selected by the first user from a group including a plurality of related images relating to the first object to a terminal device of a second user included in the user group; and the one or more computer processors execute the following in response to an instruction from the first user: including in the group a new related image including a first object representing the first user and a second object representing at least one second user of the one or more second users.

また、開示された情報処理システムにおいて、ユーザグループの設定において、一又は複数のコンピュータプロセッサが、ユーザグループを複数設定し、関連画像の表示に関する情報の送信において、一又は複数のコンピュータプロセッサが、少なくとも一の第2ユーザを含む関連画像は、少なくとも一の第2ユーザを含むユーザグループのみに送信すること、を実行することが好ましい。 Furthermore, in the disclosed information processing system, in setting the user groups, it is preferable that one or more computer processors set multiple user groups, and in transmitting information relating to the display of related images, the one or more computer processors transmit related images including at least one second user only to the user group including at least one second user.

また、開示された情報処理システムにおいて、新たな関連画像には、第1ユーザによって選択された一又は複数の第2ユーザを示す第2オブジェクトが含まれることが好ましい。 Furthermore, in the disclosed information processing system, it is preferable that the new related image includes a second object representing one or more second users selected by the first user.

また、開示された情報処理システムにおいて、一又は複数のコンピュータプロセッサが、一又は複数の第2ユーザを選択すること、を実行し、新たな関連画像には、選択された一又は複数の第2ユーザを示す第2オブジェクトが含まれることが好ましい。 Furthermore, in the disclosed information processing system, it is preferable that one or more computer processors select one or more second users, and the new related image includes a second object representing the selected one or more second users.

また、開示された情報処理システムにおいて、一又は複数の第2ユーザの選択において、一又は複数のコンピュータプロセッサが、ユーザグループに含まれるユーザ間のチャットにおいて各第2ユーザが直近に送信した情報のうち、送信時が現時点から近い順に情報を送信した一又は複数の第2ユーザを選択すること、を実行することが好ましい。 In addition, in the disclosed information processing system, it is preferable that, in selecting one or more second users, one or more computer processors select one or more second users who have sent information in descending order of the time of sending from the most recent information sent by each second user in a chat between users included in a user group, in descending order of the time of sending from the current time.

また、開示された情報処理システムにおいて、一又は複数の第2ユーザの選択において、一又は複数のコンピュータプロセッサが、ユーザグループに含まれるユーザ間のチャット画面が端末装置に表示された時点が現時点から近い一又は複数の第2ユーザを選択すること、を実行することが好ましい。 Furthermore, in the disclosed information processing system, in selecting one or more second users, it is preferable that one or more computer processors select one or more second users for whom a chat screen between users included in a user group was displayed on a terminal device at a time close to the current time.

また、開示された情報処理システムにおいて、一又は複数の第2ユーザの選択において、一又は複数のコンピュータプロセッサが、第1ユーザと所定の関係を有する一又は複数の第2ユーザを選択すること、を実行することが好ましい。 Furthermore, in the disclosed information processing system, it is preferable that in selecting one or more second users, one or more computer processors select one or more second users who have a predetermined relationship with the first user.

また、開示された情報処理システムにおいて、第1ユーザと所定の関係を有する第2ユーザは、第1ユーザと一対一の情報交換をしたことがあるユーザであることが好ましい。 Furthermore, in the disclosed information processing system, it is preferable that the second user who has a predetermined relationship with the first user is a user who has had one-to-one information exchange with the first user.

また、開示された情報処理システムにおいて、第1ユーザと所定の関係を有する第2ユーザは、第1ユーザを示す第1オブジェクトを含む動画の表示に関する情報を受信した端末装置のユーザであることが好ましい。 Furthermore, in the disclosed information processing system, it is preferable that the second user having a predetermined relationship with the first user is a user of a terminal device that has received information regarding the display of a video including a first object representing the first user.

また、開示された情報処理システムにおいて、第1ユーザと所定の関係を有する第2ユーザは、第1ユーザによってフォローされているユーザ、又は、第1ユーザと相互フォローの関係にあるユーザであることが好ましい。 Furthermore, in the disclosed information processing system, it is preferable that the second user having a predetermined relationship with the first user is a user who is followed by the first user, or a user who has a mutual follow relationship with the first user.

また、開示された情報処理システムにおいて、第1ユーザと所定の関係を有する第2ユーザは、第1ユーザと同一のイベントに参加したユーザ又は第1ユーザとともに同一ゲームに参加したユーザであることが好ましい。 Furthermore, in the disclosed information processing system, it is preferable that the second user who has a predetermined relationship with the first user is a user who participated in the same event as the first user or a user who participated in the same game as the first user.

また、開示された情報処理システムにおいて、一又は複数のコンピュータプロセッサが、ユーザグループに含まれるユーザ間の情報交換に参加している第2ユーザの数が所定数に達したことに応じて、所定数の第2ユーザを選択し、選択された所定数の第2ユーザを示す第2オブジェクトを含む新たな関連画像を生成すること、を実行することが好ましい。 In addition, in the disclosed information processing system, it is preferable that one or more computer processors select a predetermined number of second users in response to the number of second users participating in information exchange between users included in a user group reaching a predetermined number, and generate a new related image including a second object representing the selected predetermined number of second users.

また、開示された情報処理システムにおいて、新たな関連画像は、第1オブジェクト及び第2オブジェクトとは異なる、キャラクタ関連画像のデザインに関する第3オブジェクトを含み、第3オブジェクトに対応するポーズの第1オブジェクト及び第2オブジェクトを含むことが好ましい。 Furthermore, in the disclosed information processing system, it is preferable that the new related image includes a third object related to the design of the character-related image that is different from the first object and the second object, and includes the first object and the second object in a pose that corresponds to the third object.

開示された制御方法は、一又は複数のコンピュータプロセッサを備える情報処理システムの制御方法であって、一又は複数のコンピュータプロセッサが、第1ユーザを示す第1オブジェクトを含む動画の表示に関する情報を、第1ユーザとは異なるユーザの端末装置に送信し、第1ユーザ及び一又は複数の第2ユーザを含むユーザグループを設定し、第1オブジェクトに関する関連画像を複数含むグループの中から第1ユーザによって選択された関連画像の表示に関する情報を、ユーザグループに含まれる第2ユーザの端末装置に送信すること、を含み、一又は複数のコンピュータプロセッサが、第1ユーザによる指示に応じて、第1ユーザを示す第1オブジェクトと、一又は複数の第2ユーザのうちの少なくとも一の第2ユーザを示す第2オブジェクトとを含む新たな関連画像をグループに含めること、を含む。 The disclosed control method is a control method for an information processing system having one or more computer processors, and includes the following: the one or more computer processors transmit information regarding the display of a video including a first object representing a first user to a terminal device of a user different from the first user; set a user group including the first user and one or more second users; and transmit information regarding the display of a related image selected by the first user from a group including a plurality of related images relating to the first object to a terminal device of a second user included in the user group; and the one or more computer processors include, in response to an instruction from the first user, a new related image including a first object representing the first user and a second object representing at least one second user of the one or more second users in the group.

開示されたサーバ装置は、第1ユーザの第1端末装置と一又は複数の第2ユーザの第2端末装置と通信するサーバ装置であって、第1端末装置から送信された、第1ユーザを示す第1オブジェクトを含む動画の表示に関する情報を受信し、第1端末装置から受信した動画の表示に関する情報を、第1ユーザとは異なるユーザの端末装置に送信し、第1ユーザ及び一又は複数の第2ユーザを含むユーザグループを設定し、第1端末装置から送信された、第1オブジェクトに関する関連画像を複数含むグループの中から第1ユーザによって選択された関連画像の表示に関する情報を受信し、関連画像の表示に関する情報を第2端末装置に送信する、処理部を備え、第1ユーザによる指示に応じて、第1ユーザを示す第1オブジェクトと、一又は複数の第2ユーザのうちの少なくとも一の第2ユーザを示す第2オブジェクトとを含む新たな関連画像がグループに含まれる。 The disclosed server device is a server device that communicates with a first terminal device of a first user and a second terminal device of one or more second users, and includes a processing unit that receives information related to the display of a video including a first object representing the first user transmitted from the first terminal device, transmits the information related to the display of the video received from the first terminal device to a terminal device of a user different from the first user, sets a user group including the first user and one or more second users, receives information related to the display of a related image selected by the first user from a group including a plurality of related images related to the first object transmitted from the first terminal device, and transmits information related to the display of the related image to the second terminal device, and in response to an instruction from the first user, a new related image including a first object representing the first user and a second object representing at least one second user of the one or more second users is included in the group.

開示された情報処理システム、制御方法、及びサーバ装置によって、ユーザに煩雑な操作を行わせることなく、他ユーザに提供される情報を決定するユーザインターフェースを向上させることが可能となる。 The disclosed information processing system, control method, and server device make it possible to improve the user interface that determines the information to be provided to other users without requiring the user to perform complicated operations.

情報処理システムの概要の一例を説明するための模式図である。FIG. 1 is a schematic diagram illustrating an example of an overview of an information processing system. 情報処理システムの概要の一例を説明するための模式図である。FIG. 1 is a schematic diagram illustrating an example of an overview of an information processing system. 情報処理システムの概略構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a schematic configuration of an information processing system. 端末装置の概略構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a schematic configuration of a terminal device. 各種テーブルのデータ構造の一例を示す図である。3A to 3C are diagrams illustrating examples of data structures of various tables. サーバ装置の概略構成の一例を示す図である。FIG. 2 illustrates an example of a schematic configuration of a server device. 端末装置に表示される各種画面の一例を示す図である。5A to 5C are diagrams illustrating examples of various screens displayed on a terminal device. 端末装置に表示される各種画面の一例を示す図である。5A to 5C are diagrams illustrating examples of various screens displayed on a terminal device. 端末装置に表示される各種画面の一例を示す図である。5A to 5C are diagrams illustrating examples of various screens displayed on a terminal device. 端末装置に表示される各種画面の一例を示す図である。5A to 5C are diagrams illustrating examples of various screens displayed on a terminal device. 端末装置に表示される各種画面の一例を示す図である。5A to 5C are diagrams illustrating examples of various screens displayed on a terminal device. 端末装置に表示される各種画面の一例を示す図である。5A to 5C are diagrams illustrating examples of various screens displayed on a terminal device. 端末装置に表示される画面の一例を示す図である。FIG. 13 is a diagram illustrating an example of a screen displayed on the terminal device. 端末装置に表示される各種画面の一例を示す図である。5A to 5C are diagrams illustrating examples of various screens displayed on a terminal device. 端末装置に表示される画面の一例を示す図である。FIG. 13 is a diagram illustrating an example of a screen displayed on a terminal device. 情報処理システムの動作シーケンスの一例を示す図である。FIG. 11 is a diagram illustrating an example of an operation sequence of the information processing system. 候補情報表示処理の動作フローの一例を示す図である。FIG. 11 is a diagram illustrating an example of an operation flow of a candidate information display process. 追加生成処理の動作フローの一例を示す図である。FIG. 11 is a diagram illustrating an example of an operational flow of an additional generation process. 端末装置に表示される各種画面の一例を示す図である。5A to 5C are diagrams illustrating examples of various screens displayed on a terminal device.

以下、図面を参照しつつ、本発明の様々な実施形態について説明する。ただし、本発明の技術的範囲はそれらの実施形態に限定されず、特許請求の範囲に記載された発明とその均等物に及ぶ点に留意されたい。 Various embodiments of the present invention will be described below with reference to the drawings. However, please note that the technical scope of the present invention is not limited to these embodiments, but extends to the inventions described in the claims and their equivalents.

(情報処理システムの概要)
図1及び図2は、情報処理システムの概要の一例を説明するための模式図である。情報処理システムは、複数のユーザのそれぞれが操作する端末装置とサーバ装置とを備える。例えば、端末装置は、ユーザが所有する多機能携帯電話(所謂「スマートフォン」)等の情報処理装置である。例えば、サーバ装置は、通信ネットワークを介して端末装置に動画配信サービス及び情報交換サービスを提供するためのコンピュータである。サーバ装置は、動画配信サービス及び情報交換サービスの両サービス以外の他サービス(オンラインゲーム等)を端末装置に提供してもよい。
(Outline of the information processing system)
1 and 2 are schematic diagrams for explaining an example of an overview of an information processing system. The information processing system includes a terminal device operated by each of a plurality of users and a server device. For example, the terminal device is an information processing device such as a multi-function mobile phone (a so-called "smartphone") owned by the user. For example, the server device is a computer for providing a video distribution service and an information exchange service to the terminal device via a communication network. The server device may provide services (such as online games) other than the video distribution service and the information exchange service to the terminal device.

動画配信サービスは、特定の端末装置を操作しているユーザを示す画像(後述する、ユーザを示すキャラクタオブジェクトを含む配信画像等。)が、特定の端末装置から一又は複数の他のユーザの端末装置に配信されるサービスである。情報交換サービスは、インスタントメッセンジャー等を実行している複数のユーザの端末装置間において、テキスト情報及び画像情報等の各種情報が一の端末装置から他の端末装置が送信されるサービスである。情報交換サービスは、所謂チャット機能によって実現されるサービスでもよい。 The video distribution service is a service in which an image showing a user operating a specific terminal device (such as a distribution image including a character object showing the user, as described below) is distributed from the specific terminal device to one or more other users' terminal devices. The information exchange service is a service in which various information such as text information and image information is transmitted from one terminal device to another terminal device between the terminal devices of multiple users running instant messengers or the like. The information exchange service may be a service realized by a so-called chat function.

動画配信サービス、情報交換サービス、及び他サービスのうちの少なくとも2以上のサービスにおいて、各ユーザを示すキャラクタオブジェクトが連動して用いられてもよい。キャラクタオブジェクトが連動して用いられることとは、例えば、動画配信サービスにおいて外観が変更されたキャラクタオブジェクトが、情報交換サービスにおいても当該変更された外観で表示されることである。また、キャラクタオブジェクトが連動して用いられることとは、情報交換サービスにおいて使用が許可されたキャラクタオブジェクトが、動画配信サービスにおいても使用が可能となること等でもよい。また、キャラクタオブジェクトが連動して用いられることとは、情報交換サービスにおいて使用が許可されなくなったキャラクタオブジェクトが、動画配信サービスにおいても使用ができなくなること等でもよい。 A character object representing each user may be used in conjunction with at least two or more services among the video distribution service, the information exchange service, and other services. The use of a character object in conjunction with the other services may mean, for example, that a character object whose appearance has been changed in the video distribution service is also displayed with the changed appearance in the information exchange service. The use of a character object in conjunction with the other services may mean that a character object whose use is permitted in the information exchange service can also be used in the video distribution service. The use of a character object in conjunction with the other services may mean that a character object whose use is no longer permitted in the information exchange service can no longer be used in the video distribution service.

端末装置は、アプリケーションプログラム等の制御プログラムを記憶し、ユーザからの開始操作に応じて制御プログラムをメモリにロードする。端末装置は、ユーザによる指示の入力及びロードした制御プログラムに含まれる命令の実行により、少なくとも動画配信サービス及び情報交換サービスのいずれか一方を開始する。動画配信サービスが開始されると、端末装置は、制御プログラムに含まれる命令を実行することにより、動画配信サービスに関する複数の機能を実現する。また、情報交換サービスが開始されると、端末装置は、制御プログラムに含まれる命令を実行することにより、情報交換サービスに関する複数の機能を実現する。なお、サーバ装置によって提供される各種サービスをユーザが利用したい場合、ユーザが、サーバ装置と通信可能な端末装置を用いて各種サービスに係る公知のログイン操作を行うことにより、各種サービスに係るサーバ装置及び端末装置間のセッションが開始される。これにより、ユーザは、各種サービスに参加し、各種サービスを利用することが可能となる。 The terminal device stores a control program such as an application program, and loads the control program into memory in response to a start operation from the user. The terminal device starts at least one of a video distribution service and an information exchange service in response to an instruction input by the user and execution of an instruction included in the loaded control program. When the video distribution service is started, the terminal device executes an instruction included in the control program to realize multiple functions related to the video distribution service. When the information exchange service is started, the terminal device executes an instruction included in the control program to realize multiple functions related to the information exchange service. When a user wants to use various services provided by the server device, the user uses a terminal device capable of communicating with the server device to perform a known login operation related to the various services, and a session related to the various services is started between the server device and the terminal device. This allows the user to participate in and use various services.

動画配信サービスが開始された場合、例えば、ユーザの端末装置は、ユーザによって入力された各種の入力データに基づくモーションデータを含むキャラクタ動画データを生成する生成機能を実現する。例えば、入力データは、ユーザの端末装置に備えられた撮像装置によって所定のサンプリング時間間隔ごとに取得された複数の撮像データであり、この場合、各撮像データにはユーザが写されている。キャラクタ動画データは、ユーザを示すキャラクタオブジェクトを含む配信画像の表示に関する情報の一例である。キャラクタ動画データは、動画配信サービス中において所定時間ごとに生成される。 When a video distribution service is started, for example, the user's terminal device realizes a generation function that generates character video data including motion data based on various input data entered by the user. For example, the input data is a plurality of image data acquired at predetermined sampling time intervals by an imaging device provided in the user's terminal device, and in this case, the user is depicted in each image data. The character video data is an example of information related to the display of a distribution image including a character object representing the user. The character video data is generated at predetermined time intervals during the video distribution service.

また、例えば、ユーザの端末装置は、キャラクタ動画データに基づいて配信画像を表示する。ユーザの端末装置は、配信画像の表示とともに、生成されたキャラクタ動画データをサーバ装置経由で他ユーザの端末装置に送信するため、生成されたキャラクタ動画データをサーバ装置に所定時間ごとに送信する出力機能を実現する。また、例えば、ユーザの端末装置は、サーバ装置から所定時間ごとに送信された他ユーザの所定の指示を示す情報に基づいて、特定のオブジェクトを含む配信画像を表示する機能を実現する。 For example, the user's terminal device displays a distributed image based on the character video data. In addition to displaying the distributed image, the user's terminal device transmits the generated character video data to the terminal devices of other users via the server device, thereby realizing an output function of transmitting the generated character video data to the server device at predetermined time intervals. For example, the user's terminal device also realizes a function of displaying a distributed image including a specific object based on information indicating predetermined instructions of other users transmitted from the server device at predetermined time intervals.

以下、キャラクタ動画データをサーバ装置に送信するという端末装置の機能を少なくとも使用するユーザを配信ユーザと称する場合がある。配信ユーザによって操作される端末装置を配信端末装置と称する場合がある。また、配信端末装置からキャラクタ動画データを受信し且つ配信ユーザの配信画像を表示するという端末装置の機能を少なくとも使用するユーザを視聴ユーザと称する場合がある。視聴ユーザによって操作される端末装置を視聴端末装置と称する場合がある。なお、1台の端末装置が、配信端末装置及び視聴端末装置の両方の機能を有してもよい。 Hereinafter, a user who uses at least the function of a terminal device to transmit character video data to a server device may be referred to as a broadcasting user. A terminal device operated by a broadcasting user may be referred to as a broadcasting terminal device. A user who uses at least the function of a terminal device to receive character video data from a broadcasting terminal device and display a broadcast image of the broadcasting user may be referred to as a viewing user. A terminal device operated by a viewing user may be referred to as a viewing terminal device. Note that one terminal device may have the functions of both a broadcasting terminal device and a viewing terminal device.

動画配信サービスが開始されると、図1(a)に示されるように、配信端末装置は、配信ユーザの配信イベントに関する配信画像を含む配信画面を表示する。一又は複数の視聴端末装置は、配信端末装置からキャラクタ動画データをサーバ装置経由で受信し、キャラクタ動画データに基づいて配信ユーザの配信イベントに関する配信画像を含む配信画面を表示する。配信ユーザの配信画像は、配信ユーザを示すキャラクタオブジェクトを含む。当該キャラクタオブジェクトは、キャラクタ動画データに含まれる配信ユーザのモーションデータに応じて動作するように表示される。 When the video distribution service is started, as shown in FIG. 1(a), the distribution terminal device displays a distribution screen including a distribution image related to the distribution user's distribution event. One or more viewing terminal devices receive character video data from the distribution terminal device via the server device, and display a distribution screen including a distribution image related to the distribution user's distribution event based on the character video data. The distribution image of the distribution user includes a character object representing the distribution user. The character object is displayed to move according to the motion data of the distribution user included in the character video data.

配信端末装置がマイクを備える場合、配信端末装置は、配信ユーザによって発せられた音声を取得し、取得した配信ユーザの音声データを一又は複数の視聴端末装置に送信することができる。この場合、配信端末装置は、配信ユーザの音声データを、キャラクタ動画データとともにサーバ装置経由で一又は複数の視聴端末装置に送信するために、配信ユーザのキャラクタ動画データ及び音声データをサーバ装置に送信する。また、一又は複数の視聴端末装置は、配信端末装置によってサーバ装置に送信された配信ユーザのキャラクタ動画データ及び音声データをサーバ装置から受信する。 When the distribution terminal device is equipped with a microphone, the distribution terminal device can acquire voice uttered by the distribution user and transmit the acquired voice data of the distribution user to one or more viewing terminal devices. In this case, the distribution terminal device transmits the character video data and voice data of the distribution user to the server device in order to transmit the voice data of the distribution user together with the character video data to one or more viewing terminal devices via the server device. In addition, the one or more viewing terminal devices receive from the server device the character video data and voice data of the distribution user transmitted to the server device by the distribution terminal device.

配信ユーザによって発生された音声が配信端末装置によって取得された時において、キャラクタ動画データに含まれる配信ユーザのモーションデータは、配信ユーザの唇の動きを示すフェイスモーションデータを含む。この場合、配信端末装置は、配信ユーザによって発生された音声と略同期するように唇が動作する配信ユーザを示すキャラクタオブジェクトを含む配信画像を表示する。一又は複数の視聴端末装置は、配信ユーザの音声データを配信ユーザのキャラクタ動画データとともに受信した場合、配信ユーザの音声を出力するとともに、出力された音声と略同期するように唇が動作する配信ユーザを示すキャラクタオブジェクトを含む配信画像を表示する。 When the voice generated by the broadcast user is acquired by the broadcast terminal device, the motion data of the broadcast user included in the character video data includes face motion data indicating the movement of the broadcast user's lips. In this case, the broadcast terminal device displays a broadcast image including a character object representing the broadcast user whose lips move in approximate synchronization with the voice generated by the broadcast user. When one or more viewing terminal devices receive the broadcast user's voice data together with the broadcast user's character video data, they output the broadcast user's voice and display a broadcast image including a character object representing the broadcast user whose lips move in approximate synchronization with the output voice.

配信端末装置は、配信ユーザからの指示に応じて、配信ユーザを示すキャラクタオブジェクトを含むキャラクタ関連画像を生成する。例えば、キャラクタ関連画像は、情報交換サービスにおいて配信端末装置によって一又は複数の他ユーザの端末装置に送信され得る所謂「スタンプ画像」である。キャラクタ関連画像はスタンプ画像に限定されず、サーバ装置によって提供されるサービスにおいて利用可能であれば、どのような画像でもよい。他ユーザは、視聴ユーザに限定されてもよく、又は、視聴ユーザを含む配信ユーザ以外のユーザでもよい。他ユーザは、視聴ユーザを含まない配信ユーザ以外のユーザでもよい。 In response to an instruction from the broadcasting user, the broadcasting terminal device generates a character-related image including a character object representing the broadcasting user. For example, the character-related image is a so-called "stamp image" that can be transmitted by the broadcasting terminal device to one or more other users' terminal devices in an information exchange service. The character-related image is not limited to a stamp image, and may be any image that is usable in the service provided by the server device. The other users may be limited to viewing users, or may be users other than the broadcasting user, including the viewing user. The other users may be users other than the broadcasting user, not including the viewing user.

キャラクタ関連画像は、サーバ装置によって提供される情報交換サービス以外のサービスで使用されてもよい。例えば、動画配信サービスにおいて、キャラクタ関連画像を生成した配信端末装置は、キャラクタ関連画像を一又は複数の視聴端末装置に送信できるように構成されてもよい。また、オンラインゲームにおいて、キャラクタ関連画像を生成した配信端末装置は、キャラクタ関連画像を、当該オンラインゲームに参加している一又は複数の他ユーザの端末装置に送信できるように構成されてもよい。 The character-related image may be used in a service other than the information exchange service provided by the server device. For example, in a video distribution service, a distribution terminal device that generates a character-related image may be configured to be able to transmit the character-related image to one or more viewing terminal devices. Also, in an online game, a distribution terminal device that generates a character-related image may be configured to be able to transmit the character-related image to one or more terminal devices of other users participating in the online game.

図1(a)に示される例では、配信端末装置は3種類のキャラクタ関連画像を生成する。配信端末装置によって生成されたキャラクタ関連画像は図1(a)に示される3種類に限定されず、2種類のキャラクタ関連画像が生成されても、4種類以上のキャラクタ関連画像が生成されてもよい。 In the example shown in FIG. 1(a), the distribution terminal device generates three types of character-related images. The character-related images generated by the distribution terminal device are not limited to the three types shown in FIG. 1(a), and two types of character-related images or four or more types of character-related images may be generated.

次に、配信端末装置は、サーバ装置によって提供される少なくとも一のサービスにおいて使用可能なキャラクタ関連画像を含む使用可能グループを設定する。配信端末装置によって設定された使用可能グループに所属する(含まれる)キャラクタ関連画像は図1(a)に示される2種類に限定されない。1種類のキャラクタ関連画像が使用可能グループに所属するように使用可能グループが設定されてもよく、また、3種類以上のキャラクタ関連画像が使用可能グループに所属するように使用可能グループが設定されてもよい。 Next, the distribution terminal device sets an available group including character-related images that can be used in at least one service provided by the server device. The character-related images that belong to (are included in) the available group set by the distribution terminal device are not limited to the two types shown in FIG. 1(a). The available group may be set so that one type of character-related image belongs to the available group, or the available group may be set so that three or more types of character-related images belong to the available group.

配信端末装置によって設定された使用可能グループに所属しない(含まれない)キャラクタ関連画像は図1(a)に示される1種類に限定されない。使用可能グループに所属しないキャラクタ関連画像は2種類以上でもよい。使用可能グループに所属しないキャラクタ関連画像がなくてもよく、この場合、キャラクタ関連画像が生成されるたびに、生成されたキャラクタ関連画像が使用可能グループに所属するように使用可能グループが設定されてもよい。 The character-related images that do not belong to (are not included in) the available group set by the distribution terminal device are not limited to the one type shown in FIG. 1(a). There may be two or more types of character-related images that do not belong to the available group. There may be no character-related images that do not belong to the available group, in which case the available group may be set each time a character-related image is generated so that the generated character-related image belongs to the available group.

以下、図1(b)を参照して、情報交換サービスにおけるキャラクタ関連画像の使用の一例について説明する。図1(b)は、情報交換サービスを利用している配信端末装置によって表示される情報交換画面の一例を示す図である。図1(b)に示される例では、配信ユーザによって入力された入力情報が、情報交換画面のユーザ表示領域内の、最も古い入力情報から順に画面の上から下に向けて時系列に表示される。例えば、ユーザ表示領域は、情報交換画面の右辺近傍領域である。入力情報は、テキスト情報、静止画像情報、動画像情報、及びスタンプ画像等である。また、一又は複数の他ユーザの端末装置から送信された他ユーザの入力情報が、情報交換画面の他ユーザ表示領域に、最も古い入力情報から順に画面の上から下に向けて時系列に表示される。例えば、他ユーザ表示領域は、情報交換画面の左辺近傍領域である。 Below, with reference to FIG. 1(b), an example of the use of character-related images in the information exchange service will be described. FIG. 1(b) is a diagram showing an example of an information exchange screen displayed by a broadcasting terminal device using the information exchange service. In the example shown in FIG. 1(b), input information input by a broadcasting user is displayed in chronological order from the top to the bottom of the screen in the user display area of the information exchange screen, starting from the oldest input information. For example, the user display area is an area near the right side of the information exchange screen. The input information is text information, still image information, moving image information, stamp images, etc. In addition, input information of other users transmitted from one or more terminal devices of other users is displayed in chronological order from the top to the bottom of the screen in the other user display area of the information exchange screen, starting from the oldest input information. For example, the other user display area is an area near the left side of the information exchange screen.

図1(b)に示されるように、配信端末装置は、配信ユーザからの指示に応じて、配信ユーザの使用可能グループに所属する全部又は一部のキャラクタ関連画像のそれぞれを示す候補情報を選択可能に表示する。候補情報は、キャラクタ関連画像と同一の画像、キャラクタ関連画像を縮小したサムネイル画像、又はキャラクタ関連画像をデフォルメした簡略画像等である。候補情報には、キャラクタ関連画像を示すテキスト情報、マーク画像等が含まれてもよい。 As shown in FIG. 1(b), in response to an instruction from the broadcasting user, the broadcasting terminal device selectively displays candidate information indicating all or some of the character-related images belonging to the broadcasting user's available group. The candidate information is an image identical to the character-related image, a thumbnail image that is a reduced version of the character-related image, or a simplified image that is a deformed version of the character-related image, etc. The candidate information may also include text information indicating the character-related image, a mark image, etc.

配信端末装置は、表示された候補情報の中から配信ユーザによって選択された候補情報に対応するキャラクタ関連画像を、情報交換画面のユーザ表示領域の最新の入力情報の下に表示する(図1(b))。配信端末装置は、キャラクタ関連画像の表示とともに、当該キャラクタ関連画像の表示に関する情報を、サーバ装置経由で一又は複数の他ユーザの端末装置に送信する。この場合、キャラクタ関連画像の表示に関する情報を受信した一又は複数の他ユーザの端末装置は、当該キャラクタ関連画像を、情報交換画面の他ユーザ表示領域の最新の入力情報の下に表示する。キャラクタ関連画像の表示に関する情報は、キャラクタ関連画像を識別するための識別情報である。キャラクタ関連画像の表示に関する情報は、キャラクタ関連画像でもよい。 The broadcasting terminal device displays a character-related image corresponding to candidate information selected by the broadcasting user from the displayed candidate information, below the most recently input information in the user display area of the information exchange screen (FIG. 1(b)). Along with displaying the character-related image, the broadcasting terminal device transmits information relating to the display of the character-related image to one or more terminal devices of other users via the server device. In this case, the terminal device of one or more other users that receives the information relating to the display of the character-related image displays the character-related image below the most recently input information in the other user display area of the information exchange screen. The information relating to the display of the character-related image is identification information for identifying the character-related image. The information relating to the display of the character-related image may be the character-related image itself.

配信端末装置は、配信ユーザを示すキャラクタオブジェクトと、一又は複数の他ユーザのうちの少なくとも一の他ユーザを示すキャラクタオブジェクトとを含む新たな関連画像を生成する追加生成処理を実行する。一又は複数の他ユーザは、開始された情報交換サービスに参加しているユーザであって、配信ユーザと情報交換可能なユーザである。 The broadcasting terminal device executes an additional generation process to generate a new related image including a character object representing the broadcasting user and a character object representing at least one of the one or more other users. The one or more other users are users who are participating in the started information exchange service and who are able to exchange information with the broadcasting user.

以下、図2を参照して追加生成処理の一例の概要について説明する。 Below, an overview of an example of the additional generation process is explained with reference to Figure 2.

まず、配信端末装置は、配信ユーザによる指示に応じて、又は、自動的に、一又は複数の他ユーザによって構成される選択対象グループの中から一又は複数のユーザを選択する。図2の(1)に示される例では、2人の他ユーザ(他ユーザX及び他ユーザY)が属する選択対象グループの中から、他ユーザXが選択される。 First, the distribution terminal device selects one or more users from a selection target group consisting of one or more other users, either in response to an instruction from the distribution user or automatically. In the example shown in FIG. 2(1), other user X is selected from a selection target group to which two other users (other user X and other user Y) belong.

選択対象グループに属するユーザは、情報交換サービスに参加し且つ配信ユーザと情報交換可能な他ユーザに限定されない。選択対象グループには、配信ユーザと所定の関係にある一又は複数のユーザが含まれてもよく、又は、選択対象グループには、配信ユーザと所定の関係にある一又は複数のユーザのみが含まれてもよい。また、選択対象グループには、情報交換以外のサービスに参加しているユーザが含まれてもよく、又は、選択対象グループには、情報交換以外のサービスに参加しているユーザのみが含まれてもよい。 The users belonging to the selection group are not limited to other users who participate in the information exchange service and can exchange information with the broadcasting user. The selection group may include one or more users who have a specified relationship with the broadcasting user, or the selection group may only include one or more users who have a specified relationship with the broadcasting user. The selection group may also include users who participate in services other than information exchange, or the selection group may only include users who participate in services other than information exchange.

配信端末装置は、他ユーザXが選択された場合、配信ユーザを示すキャラクタオブジェクトと、選択された他ユーザXを示すキャラクタオブジェクトと、両方を含む新たなキャラクタ関連画像を生成する(図2の(2))。新たなキャラクタ関連画像には、キャラクタオブジェクト以外の各種オブジェクト(文字を示すオブジェクト、背景オブジェクト等)が含まれてもよい。新たなキャラクタ関連画像に含まれるキャラクタオブジェクトは、所定の動作を自動的に行うように制御されてもよい。 When another user X is selected, the broadcasting terminal device generates a new character-related image that includes both a character object representing the broadcasting user and a character object representing the selected other user X ((2) in FIG. 2). The new character-related image may include various objects other than the character object (objects representing text, background objects, etc.). The character objects included in the new character-related image may be controlled to automatically perform a predetermined action.

次に、配信端末装置は、新たなキャラクタ関連画像を使用可能グループに所属させ(含ませ)、図2の(3)に示されるように、新たなキャラクタ関連画像を示す候補情報を選択可能に表示する。そして、配信端末装置は、表示された候補情報の中から配信ユーザによって一の候補情報が選択された場合、当該一の候補情報に対応するキャラクタ関連画像を、情報交換画面のユーザ表示領域の最新の入力情報の下に表示する。 Next, the broadcasting terminal device causes the new character-related image to belong (be included) in the available group, and displays candidate information showing the new character-related image in a selectable manner, as shown in FIG. 2 (3). Then, when a piece of candidate information is selected by the broadcasting user from the displayed candidate information, the broadcasting terminal device displays the character-related image corresponding to that piece of candidate information below the most recently entered information in the user display area of the information exchange screen.

配信端末装置は、新たなキャラクタ関連画像を使用可能グループに所属させ(含ませ)るとともに、使用可能グループに含まれている他のキャラクタ関連画像を削除してもよい。削除される他のキャラクタ関連画像は、使用可能グループに含まれている、新たなキャラクタ関連画像以外の全てのキャラクタ関連画像でもよい。これにより、既に使用可能グループに含まれているキャラクタ関連画像が、新たなキャラクタ関連画像に変更される。 The distribution terminal device may include (associate) the new character-related image in the available group, and may delete other character-related images included in the available group. The other character-related images that are deleted may be all character-related images included in the available group other than the new character-related image. This changes the character-related images already included in the available group to the new character-related images.

キャラクタ関連画像を生成する端末装置は配信端末装置に限らない。ユーザを示すキャラクタオブジェクトが利用可能な端末装置であれば、当該キャラクタオブジェクトを含むキャラクタ関連画像を生成してもよい。 The terminal device that generates the character-related image is not limited to the distribution terminal device. If the terminal device is capable of using a character object representing a user, the character-related image including the character object may be generated.

以上、図1及び図2を参照しつつ説明したとおり、情報処理システム、端末装置、及びサーバ装置は、キャラクタ関連画像の生成又は増加を指示したユーザ以外の他ユーザを示すキャラクタオブジェクトに関する情報に基づいて、使用可能となるキャラクタ関連画像の種類を増加させる。このように、情報処理システム、端末装置、及びサーバ装置によって、ユーザに煩雑な操作を行わせることなく、他ユーザに提供される情報を決定するユーザインターフェースを向上させることが可能となる。 As described above with reference to Figures 1 and 2, the information processing system, terminal device, and server device increase the types of character-related images that can be used based on information about character objects that represent users other than the user who instructed the generation or increase of character-related images. In this way, the information processing system, terminal device, and server device make it possible to improve the user interface that determines the information to be provided to other users without requiring the user to perform complicated operations.

また、情報処理システム、端末装置、及びサーバ装置は、キャラクタ関連画像の生成又は増加を指示したユーザ以外の他ユーザを示すキャラクタオブジェクトに関する情報に基づくキャラクタ関連画像を、使用可能なキャラクタ関連画像のうちの少なくとも一つと変更させる。このように、情報処理システム、端末装置、及びサーバ装置によって、ユーザに煩雑な操作を行わせることなく、他ユーザに提供される情報を変化させてユーザの選択を飽きさせないようにすることが可能となる。 The information processing system, terminal device, and server device also change the character-related image based on information about a character object representing a user other than the user who instructed the generation or increase of the character-related image to at least one of the available character-related images. In this way, the information processing system, terminal device, and server device can change the information provided to other users without requiring the user to perform complicated operations, thereby preventing the user from becoming bored with their choices.

また、従来の情報処理システムでは、ユーザがキャラクタ関連画像の候補を増減又は変更させる操作又は指示を行うためには、ユーザは、キャラクタ関連画像を使用するサービスを中断又は終了させる必要があった。このように、従来の情報処理システムでは、ユーザがキャラクタ関連画像の候補を増減又は変更させる操作又は指示を行う際に、サービスの中断又は終了、及び、中断したサービスの再開に関する複数の通信が発生することになり、端末装置の処理負荷及び/又は端末装置とサーバ装置と間の通信の負荷が増大するという問題が生じることがあった。 Furthermore, in conventional information processing systems, in order for a user to perform an operation or give an instruction to increase, decrease, or change the candidates for character-related images, the user had to interrupt or terminate the service that uses the character-related images. Thus, in conventional information processing systems, when a user performs an operation or gives an instruction to increase, decrease, or change the candidates for character-related images, multiple communications are generated regarding the interruption or termination of the service and the resumption of the interrupted service, which can cause problems such as an increase in the processing load on the terminal device and/or the communication load between the terminal device and the server device.

これに対し、本実施形態で開示された情報処理システム、端末装置、及びサーバ装置では、キャラクタ関連画像の生成を指示したユーザ以外の他ユーザを示すキャラクタオブジェクトに関する情報に基づいて新たなキャラクタ関連画像を生成する追加生成処理により、他ユーザに提供される情報の多様化を図ること、及び/又は他ユーザに提供される情報を変化させてユーザの選択を飽きさせないようにすることができ、端末装置の処理負荷及び/又は端末装置とサーバ装置と間の通信負荷を低減させることが可能となる。また、本実施形態で開示された情報処理システム、端末装置、及びサーバ装置は、他ユーザに提供するキャラクタ関連画像の多様化を図ることができるため、キャラクタ関連画像が利用可能な各種サービスに対するユーザの利用意欲を向上させることが可能となる。また、本実施形態で開示された情報処理システム、端末装置、及びサーバ装置により、サービスの実行を継続したまま、自動的なキャラクタ関連画像の変更を、簡単なインターフェースで実現することが可能となる。 In contrast, in the information processing system, terminal device, and server device disclosed in this embodiment, the additional generation process generates new character-related images based on information about character objects representing users other than the user who instructed the generation of the character-related images, thereby diversifying the information provided to other users and/or changing the information provided to other users to prevent the user from becoming bored with the selection, thereby making it possible to reduce the processing load of the terminal device and/or the communication load between the terminal device and the server device. In addition, the information processing system, terminal device, and server device disclosed in this embodiment can diversify the character-related images provided to other users, thereby making it possible to increase the user's willingness to use various services in which character-related images can be used. In addition, the information processing system, terminal device, and server device disclosed in this embodiment make it possible to automatically change character-related images with a simple interface while continuing to execute the service.

また、図1及び図2に示される例において、情報交換サービスを利用するユーザ及び他ユーザは、所定の関係を有しているユーザでもよい。例えば、ユーザと所定の関係を有する他ユーザは、ユーザの相互フォロワーである。なお、ユーザが他ユーザをフォローし且つ他ユーザもユーザをフォローしている(ユーザと他ユーザが相互フォローしている)場合、ユーザと他ユーザは相互フォロワーとなる。また、ユーザと所定の関係を有する他ユーザは、ユーザの相互フォロワーである所定ユーザと相互フォローの関係にある他ユーザでもよい。また、ユーザと所定の関係を有する他ユーザは、ユーザとフレンド関係にある他ユーザでもよく、又は、ユーザの端末装置に特定情報(電話番号、メールアドレス、所定のID(identification)等)が記憶されている他のユーザでもよい。また、ユーザが配信ユーザである場合、ユーザと所定の関係を有する他ユーザは、ユーザが配信した配信画像を視聴した視聴ユーザでもよい。この場合、所定の関係を有しているユーザ及び他ユーザが、図1及び図2に示されるような情報交換サービスを行う場合、ユーザ及び他ユーザによって構成される所定の情報交換グループが、ユーザ若しくは他ユーザの端末装置又はサーバ装置によって一時的に作成されてもよい。 In the example shown in FIG. 1 and FIG. 2, the user and other users who use the information exchange service may be users who have a predetermined relationship. For example, other users who have a predetermined relationship with the user are mutual followers of the user. In addition, when the user follows other users and the other users also follow the user (the user and other users follow each other), the user and other users become mutual followers. In addition, other users who have a predetermined relationship with the user may be other users who have a mutual follow relationship with a predetermined user who is a mutual follower of the user. In addition, other users who have a predetermined relationship with the user may be other users who have a friend relationship with the user, or other users whose specific information (such as a phone number, an email address, or a predetermined ID (identification)) is stored in the user's terminal device. In addition, when the user is a distribution user, other users who have a predetermined relationship with the user may be viewing users who have viewed a distribution image distributed by the user. In this case, when the user and other users who have a predetermined relationship perform an information exchange service as shown in FIG. 1 and FIG. 2, a predetermined information exchange group composed of the user and other users may be temporarily created by the user's or other users' terminal device or server device.

なお、上述した図1及び図2の説明は、本発明の内容への理解を深めるための説明にすぎない。本発明は、具体的には、次に説明する各実施形態において実施され、且つ、本発明の原則を実質的に超えずに、さまざまな変形例によって実施されてもよい。このような変形例はすべて、本発明及び本明細書の開示範囲に含まれる。 The above explanation of Figs. 1 and 2 is merely for the purpose of deepening understanding of the contents of the present invention. The present invention is specifically embodied in the following embodiments, and may be embodied in various modified forms without substantially departing from the principles of the present invention. All such modified forms are included within the scope of the present invention and the disclosure of this specification.

(情報処理システム1)
図3は、情報処理システム1の概略構成の一例を示す図である。情報処理システム1は、複数のユーザのそれぞれが操作する端末装置2と、サーバ装置3とを備える。端末装置2及びサーバ装置3は、例えば、基地局4と移動体通信網5とゲートウェイ6とインターネット7等の通信ネットワークとを介して相互に接続される。端末装置2及びサーバ装置3間では、ハイパーテキスト転送プロトコル(Hypertext Transfer Protocol,HTTP)等の通信プロトコルに基づいて通信が行われる。また、端末装置2及びサーバ装置3間において、最初にHTTP通信によりコネクションが確立され、その後は、HTTP通信よりも小コスト(通信負荷及び処理負荷が少ない)の双方向通信が行われるWebSocketに基づいて通信が行われてもよい。なお、端末装置2及びサーバ装置3間の通信方式は、上述の方式に限定されず、本実施形態を実現できるものであれば、端末装置2及びサーバ装置3間においてどのような通信方式の技術が用いられてもよい。
(Information Processing System 1)
FIG. 3 is a diagram showing an example of a schematic configuration of the information processing system 1. The information processing system 1 includes a terminal device 2 operated by each of a plurality of users, and a server device 3. The terminal device 2 and the server device 3 are connected to each other via a communication network such as a base station 4, a mobile communication network 5, a gateway 6, and the Internet 7. Between the terminal device 2 and the server device 3, communication is performed based on a communication protocol such as Hypertext Transfer Protocol (HTTP). In addition, a connection is first established between the terminal device 2 and the server device 3 by HTTP communication, and thereafter, communication may be performed based on WebSocket, which performs bidirectional communication with lower cost (lower communication load and processing load) than HTTP communication. Note that the communication method between the terminal device 2 and the server device 3 is not limited to the above-mentioned method, and any communication method technology may be used between the terminal device 2 and the server device 3 as long as it can realize this embodiment.

通信ネットワークは、ローカルエリアネットワーク(Local Area Network, LAN)又はワイドエリアネットワーク(Wide Area Network, WAN)、若しくは、LAN及びWANの任意の組み合わせでもよい。通信ネットワークには、公衆交換電話網(Public Switched Telephone Network, PSTN)、サービス総合デジタル網(Integrated Services Digital Network, ISDN)及び/又はサブネットワークが含まれてもよい。通信ネットワークは、イーサネット(Ethernet)のネットワークケーブル、又は、ユニバーサルシリアルバス(Universal Serial Bus, USB)ケーブル等の有線通信網でもよい。通信ネットワークは、EDGE、3G、4G及び/又は5Gの無線セルラーシステムを含むセルラーネットワークなどの無線通信網でもよい。無線通信網には、Wi-Fi(登録商標)、無線LAN、Bluetooth(登録商標)、又は、その他の公知の無線形式の通信が含まれてもよい。 The communication network may be a Local Area Network (LAN) or a Wide Area Network (WAN), or any combination of LANs and WANs. The communication network may include a Public Switched Telephone Network (PSTN), an Integrated Services Digital Network (ISDN), and/or a sub-network. The communication network may be a wired communication network, such as an Ethernet network cable or a Universal Serial Bus (USB) cable. The communication network may be a wireless communication network, such as a cellular network, including EDGE, 3G, 4G, and/or 5G wireless cellular systems. The wireless communication network may include Wi-Fi, wireless LAN, Bluetooth, or other known wireless forms of communication.

端末装置2は、スマートフォン等の情報処理装置である。端末装置2は、携帯電話機、ノートPC、タブレット端末、タブレットPC、ヘッドマウントディスプレイ(Head Mounted Display,HMD)、電子書籍リーダー、又はウェアラブルコンピュータ等でもよい。端末装置2は、携帯ゲーム機、又はゲーム用コンソール等でもよい。端末装置2は、ユーザ及び他ユーザを示すキャラクタオブジェクトの表示出力、他ユーザの音声の出力、並びに、他ユーザとの情報交換処理が可能であれば、どのような情報処理装置でもよい。 The terminal device 2 is an information processing device such as a smartphone. The terminal device 2 may be a mobile phone, a notebook PC, a tablet terminal, a tablet PC, a head mounted display (HMD), an e-book reader, a wearable computer, or the like. The terminal device 2 may be a portable game device, a game console, or the like. The terminal device 2 may be any information processing device as long as it is capable of displaying and outputting character objects representing the user and other users, outputting the voices of other users, and processing information exchange with other users.

図3に示される例では、1台のサーバ装置3が情報処理システム1の構成要素として図示されているが、サーバ装置3は複数の物理的に別体のサーバ装置3の集合であってもよい。この場合、複数のサーバ装置3のそれぞれは、同一の機能を有するものでもよく、1台のサーバ装置3の機能を分散して有するものでもよい。例えば、動画配信サービスを実現するためのサーバ装置3aと、情報交換サービスを実現するためのサーバ装置3bとが、情報処理システム1の構成要素であってもよい。 In the example shown in FIG. 3, one server device 3 is illustrated as a component of the information processing system 1, but the server device 3 may be a collection of multiple physically separate server devices 3. In this case, each of the multiple server devices 3 may have the same function, or may have the functions of a single server device 3 in a distributed manner. For example, a server device 3a for realizing a video distribution service and a server device 3b for realizing an information exchange service may be components of the information processing system 1.

(端末装置2)
図4は、端末装置2の概略構成の一例を示す図である。端末装置2は、基地局4と移動体通信網5とゲートウェイ6とインターネット7等の通信ネットワークとを介してサーバ装置3に接続し、サーバ装置3と通信を行う。端末装置2は、ユーザによって入力された各種データ(撮像データ等)に従ってモーションデータを含むキャラクタ動画データを生成し、生成したキャラクタ動画データ及び/又はユーザの音声データをサーバ装置3に送信する。また、端末装置2は、サーバ装置3から送信された他ユーザのキャラクタ動画データ及び/又は他ユーザの音声データを受信し、受信したャラクタ動画データ及び/又は音声データに基づいて他ユーザのキャラクタオブジェクトを表示し、及び/又は、他ユーザの音声を出力する。また、端末装置2は、ユーザによって入力された、テキスト情報、静止画像情報、動画像情報、及びスタンプ画像等の入力情報と、他ユーザの端末装置2から送信された、他ユーザによって入力された入力情報と、を時系列に従って表示する。このような機能を実現するため、端末装置2は、端末通信I/F21と、端末記憶装置22と、表示装置23と、入力装置24と、撮像装置25と、マイク26と、端末処理装置27とを備える。
(Terminal device 2)
4 is a diagram showing an example of a schematic configuration of the terminal device 2. The terminal device 2 is connected to the server device 3 via a communication network such as a base station 4, a mobile communication network 5, a gateway 6, and the Internet 7, and communicates with the server device 3. The terminal device 2 generates character video data including motion data according to various data (image data, etc.) input by the user, and transmits the generated character video data and/or the user's voice data to the server device 3. The terminal device 2 also receives character video data and/or voice data of other users transmitted from the server device 3, and displays character objects of other users based on the received character video data and/or voice data, and/or outputs the voices of other users. The terminal device 2 also displays input information such as text information, still image information, video information, and stamp images input by the user, and input information input by other users transmitted from the terminal devices 2 of other users in chronological order. To realize such functions, the terminal device 2 includes a terminal communication I/F 21 , a terminal storage device 22 , a display device 23 , an input device 24 , an imaging device 25 , a microphone 26 , and a terminal processing device 27 .

端末通信I/F21は、ハードウェア、ファームウェア、又はTCP/IP(Transmission Control Protocol / Internet Protocol)ドライバやPPP(Point-to-Point Protocol)ドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装される。端末装置2は、端末通信I/F21を介して、サーバ装置3等の他の装置にデータを送信し且つ他の装置からデータを受信することができる。なお、端末通信I/F21には、通信ネットワークとインターフェースするためのイーサネットPROネットワークインターフェースカードのようなネットワークコントローラが含まれてもよい。また、ネットワークコントローラは、Bluetooth(登録商標)、近距離無線通信(Near Field Communication, NFC)、又は赤外線等の他の直接的な無線通信規格に準拠するものでもよい。 The terminal communication I/F 21 is implemented as hardware, firmware, or communication software such as a TCP/IP (Transmission Control Protocol/Internet Protocol) driver or a PPP (Point-to-Point Protocol) driver, or a combination of these. The terminal device 2 can transmit data to and receive data from other devices such as the server device 3 via the terminal communication I/F 21. The terminal communication I/F 21 may include a network controller such as an Ethernet PRO network interface card for interfacing with a communication network. The network controller may also be compliant with other direct wireless communication standards such as Bluetooth (registered trademark), Near Field Communication (NFC), or infrared.

端末記憶装置22は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)等の半導体メモリ装置である。端末記憶装置22は、端末処理装置27における処理に用いられるオペレーティングシステムプログラム、ドライバプログラム、制御プログラム及びデータ等を記憶する。端末記憶装置22に記憶されるドライバプログラムは、表示装置23を制御する出力デバイスドライバプログラム、及び、入力装置24を制御する入力デバイスドライバプログラム等である。端末記憶装置22に記憶される制御プログラムは、例えば、動画配信サービス及び情報交換サービス等を含む各種サービスに関する各種機能を実現するためのアプリケーションプログラムである。なお、制御プログラムは、サーバ装置3又はその他の装置から送信されたものでもよい。 The terminal storage device 22 is, for example, a semiconductor memory device such as a ROM (Read Only Memory) or a RAM (Random Access Memory). The terminal storage device 22 stores an operating system program, a driver program, a control program, data, etc. used for processing in the terminal processing device 27. The driver programs stored in the terminal storage device 22 are an output device driver program that controls the display device 23, and an input device driver program that controls the input device 24, etc. The control programs stored in the terminal storage device 22 are, for example, application programs for realizing various functions related to various services including video distribution services and information exchange services. The control programs may be those transmitted from the server device 3 or other devices.

端末記憶装置22は、データとして、端末装置2を操作するユーザを一意に識別するための識別情報(例えば、ユーザID)等を記憶する。また、端末記憶装置22は、データとして、背景データ及びモデルデータ等を記憶する。また、端末記憶装置22は、データとして、ユーザテーブルT1、オブジェクトテーブルT2、及びグループテーブルT3を記憶する。また、端末記憶装置22は、所定の処理に係るデータを一時的に記憶してもよい。 The terminal storage device 22 stores, as data, identification information (e.g., a user ID) for uniquely identifying a user who operates the terminal device 2. The terminal storage device 22 also stores, as data, background data and model data. The terminal storage device 22 also stores, as data, a user table T1, an object table T2, and a group table T3. The terminal storage device 22 may also temporarily store data related to a specified process.

背景データは、配信画像において、ユーザのキャラクタオブジェクトが存在する仮想空間を構築するためのアセットデータである。背景データには、仮想空間の背景を描画するためのデータ、配信画像に含まれる各種物体を描画するためのデータ、及びこれら以外の配信画像に表示される各種背景オブジェクトを描画するためのデータが含まれる。背景データには、仮想空間における各種背景オブジェクトの位置を示すオブジェクト位置情報が含まれてもよい。 The background data is asset data for constructing a virtual space in which the user's character object exists in the delivered image. The background data includes data for drawing the background of the virtual space, data for drawing various objects included in the delivered image, and data for drawing various other background objects displayed in the delivered image. The background data may also include object position information that indicates the positions of various background objects in the virtual space.

また、端末記憶装置22は、データとして、キャラクタ関連画像用のモーションデータを複数種類記憶する。キャラクタ関連画像用のモーションデータは、キャラクタオブジェクトに所定の動作をさせるための各部位(頭部、腕部、手部(指部を含む)、胸部、胴部、脚部、又はこれら以外の部位)の位置及び向きのデジタル表現であるボディモーションデータを含む。また、キャラクタ関連画像用のモーションデータは、キャラクタオブジェクトに顔に所定の表情をさせるためのフェイスモーションデータを含んでもよい。 The terminal storage device 22 also stores multiple types of motion data for character-related images as data. The motion data for character-related images includes body motion data, which is a digital representation of the position and orientation of each part (head, arms, hands (including fingers), chest, torso, legs, or other parts) for causing the character object to perform a predetermined movement. The motion data for character-related images may also include face motion data for causing the character object to have a predetermined facial expression.

キャラクタ関連画像用のモーションデータは、キャラクタオブジェクトを所定時間(例えば3秒)だけ動くように表現するために、複数の連続したモーションデータの集合であってもよい。キャラクタ関連画像用のモーションデータは、一のモーションデータでもよい。キャラクタ関連画像用のモーションデータが一のモーションデータである場合、当該キャラクタ関連画像用のモーションデータによって生成されたキャラクタ関連画像に含まれるキャラクタオブジェクトは動作を行わない。 The motion data for a character-related image may be a collection of multiple consecutive motion data in order to express a character object moving for a predetermined period of time (e.g., 3 seconds). The motion data for a character-related image may be a single piece of motion data. When the motion data for a character-related image is a single piece of motion data, the character object included in the character-related image generated by the motion data for that character-related image does not move.

また、端末記憶装置22は、データとして、キャラクタ関連画像用のモーションデータとともに、各種背景オブジェクト、ギフトオブジェクト、文字を表現するためのオブジェクトデータ等の、キャラクタ関連画像用のオブジェクトデータを記憶してもよい。このようなキャラクタ関連画像のデザインに関する、キャラクタ関連画像用のオブジェクトデータが用いられることにより、キャラクタ関連画像の表現を多様にすることが可能となる。この場合、端末記憶装置22は、キャラクタ関連画像用のオブジェクトデータに関連付けられたオブジェクトIDを記憶してもよい。 The terminal storage device 22 may also store object data for character-related images, such as various background objects, gift objects, and object data for expressing text, together with motion data for character-related images. By using object data for character-related images related to the design of such character-related images, it becomes possible to diversify the expression of the character-related images. In this case, the terminal storage device 22 may store an object ID associated with the object data for the character-related images.

表示装置23は、液晶ディスプレイである。なお、表示装置23は、有機EL(Electro-Luminescence)ディスプレイ等でもよい。表示装置23は、端末処理装置27から供給された、動画像データに応じた動画像及び/又は静止画像データに応じた静止画像等を表示画面に表示する。また、表示装置23は、端末装置2の構成要素でなくてもよく、この場合、表示装置23は、サーバ装置3と通信可能なHMDのディスプレイ、有線又は無線を介して端末装置2と通信可能な、プロジェクションマッピング(Projection Mapping)用の映写装置、網膜投影型の投影装置等でもよい。なお、端末装置2は、表示装置23とインターフェースするためのグラフィックカード又はグラフィックアダプタ等のディスプレイコントローラを備えてもよい。 The display device 23 is a liquid crystal display. The display device 23 may be an organic EL (Electro-Luminescence) display or the like. The display device 23 displays on a display screen moving images corresponding to moving image data and/or still images corresponding to still image data supplied from the terminal processing device 27. The display device 23 does not have to be a component of the terminal device 2. In this case, the display device 23 may be a display of an HMD capable of communicating with the server device 3, a projection device for projection mapping capable of communicating with the terminal device 2 via wired or wireless communication, a retinal projection type projection device, or the like. The terminal device 2 may be provided with a display controller such as a graphics card or a graphics adapter for interfacing with the display device 23.

入力装置24は、タッチパネル等のポインティングデバイスである。入力装置24がタッチパネルである場合、入力装置24は、ユーザのタップ、ダブルタップ、ドラッグ等の各種タッチ操作を検出することができる。タッチパネルは、静電容量式の近接センサを備え、ユーザの非接触操作を検出可能に構成されてもよい。なお、入力装置24は、入力キー等でもよい。ユーザは、入力装置24を用いて、文字、数字及び記号、若しくは、表示装置23の表示画面上の位置等を入力することができる。入力装置24は、ユーザにより操作されると、その操作に対応する信号を発生する。そして、入力装置24は、発生した信号を、ユーザの指示として端末処理装置27に供給する。なお、端末装置2は、入力装置24とインターフェースするためのI/Oインターフェースを備えてもよい。I/Oインターフェースは、入力装置24の他のさまざまな周辺機器と接続されてもよい。 The input device 24 is a pointing device such as a touch panel. When the input device 24 is a touch panel, the input device 24 can detect various touch operations such as tapping, double tapping, and dragging by the user. The touch panel may be equipped with a capacitance-type proximity sensor and configured to detect non-contact operations by the user. The input device 24 may be an input key or the like. The user can use the input device 24 to input letters, numbers, and symbols, or positions on the display screen of the display device 23, etc. When operated by the user, the input device 24 generates a signal corresponding to the operation. Then, the input device 24 supplies the generated signal to the terminal processing device 27 as an instruction from the user. The terminal device 2 may be equipped with an I/O interface for interfacing with the input device 24. The I/O interface may be connected to various other peripheral devices of the input device 24.

撮像装置25は、結像光学系、撮像素子及び画像処理部等を有するカメラである。結像光学系は、例えば光学レンズであり、被写体からの光束を撮像素子の撮像面上に結像させる。撮像素子は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)等であり、撮像面上に結像した被写体像の画像を出力する。画像処理部は、連続して撮像素子によって生成された画像から、所定期間毎に所定のファイル形式の動画像データを作成して撮像データとして出力する。または、画像処理部は、撮像素子によって生成された画像から所定のファイル形式の静止画像データを作成して撮像データとして出力する。 The imaging device 25 is a camera having an imaging optical system, an imaging element, an image processing unit, etc. The imaging optical system is, for example, an optical lens, and focuses a light beam from a subject on the imaging surface of the imaging element. The imaging element is, for example, a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS), and outputs an image of the subject imaged on the imaging surface. The image processing unit creates moving image data in a predetermined file format from images continuously generated by the imaging element at predetermined intervals, and outputs the data as imaging data. Alternatively, the image processing unit creates still image data in a predetermined file format from images generated by the imaging element, and outputs the data as imaging data.

マイク26は、ユーザによって発せられた音声を取得し、音声データに変換するように構成された集音装置である。マイク26は、ユーザの音声入力を取得することができるように構成され、マイク26により取得されたユーザの音声入力を音声データに変換し、音声データを端末処理装置27に出力する。 The microphone 26 is a sound collection device configured to acquire voice uttered by the user and convert it into voice data. The microphone 26 is configured to acquire voice input from the user, converts the user's voice input acquired by the microphone 26 into voice data, and outputs the voice data to the terminal processing device 27.

端末処理装置27は、端末記憶装置22に記憶されているオペレーティングシステムプログラム、ドライバプログラム及び制御プログラムをメモリにロードし、ロードしたプログラムに含まれる命令を実行するプロセッサである。端末処理装置27は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)等の電子回路、又は各種電子回路の組み合わせである。端末処理装置27は、ASICs(Application Specific Integrated Circuits)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)、MCU(Micro Controller Unit)等の集積回路により実現されてもよい。図4においては、端末処理装置27が単一の構成要素として図示されているが、端末処理装置27は複数の物理的に別体のプロセッサの集合であってもよい。例えば、命令を実行するために協調的に並列に動作する複数のプロセッサが実装されてもよい。 The terminal processing device 27 is a processor that loads the operating system program, driver program, and control program stored in the terminal storage device 22 into memory and executes the instructions included in the loaded programs. The terminal processing device 27 is, for example, an electronic circuit such as a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a DSP (Digital Signal Processor), or a GPU (Graphics Processing Unit), or a combination of various electronic circuits. The terminal processing device 27 may be realized by an integrated circuit such as an ASICs (Application Specific Integrated Circuits), a PLD (Programmable Logic Device), an FPGA (Field Programmable Gate Array), or an MCU (Micro Controller Unit). In FIG. 4, the terminal processing device 27 is illustrated as a single component, but the terminal processing device 27 may be a collection of multiple physically separate processors. For example, multiple processors that operate in parallel in a cooperative manner to execute instructions may be implemented.

なお、本明細書で開示された構成要素(例えば、端末処理装置27及び/又は(後述する)サーバ処理装置33)により実現される機能は、当該記載された機能を実現するようにプログラムされた、汎用プロセッサ、特定用途プロセッサ、集積回路、ASICs、CPU、従来型の回路、及び/又はそれらの組合せを含む、「Circuitry」又は「Processing Circuitry」において実装されてもよい。プロセッサは、トランジスタやその他の回路を含み、「Circuitry」又は「Processing Circuitry」とみなされる。プロセッサは、メモリに格納されたプログラムを実行する、「Programmed Processor」であってもよい。 Note that the functions realized by the components disclosed herein (e.g., the terminal processing device 27 and/or the server processing device 33 (described below)) may be implemented in "circuitry" or "processing circuitry" including general-purpose processors, application-specific processors, integrated circuits, ASICs, CPUs, conventional circuits, and/or combinations thereof, programmed to realize the described functions. Processors include transistors and other circuits and are considered to be "circuitry" or "processing circuitry." A processor may be a "programmed processor" that executes programs stored in memory.

本明細書において、「Circuitry」、「ユニット」、「手段」は、記載された機能を実現するようにプログラムされたハードウェア、又は実行するハードウェアである。当該ハードウェアは、本明細書に開示されているあらゆるハードウェア、又は、当該記載された機能を実現するようにプログラムされた、又は、実行するものとして知られているあらゆるハードウェアであってもよい。 As used herein, a "circuitry," "unit," or "means" refers to hardware that is programmed to implement or executes a described function. The hardware may be any hardware disclosed herein or any hardware known to be programmed to implement or execute the described function.

当該ハードウェアが「Circuitry」のタイプであるとみなされるプロセッサである場合、当該「Circuitry」、「ユニット」、又は「手段」は、ハードウェアと、当該ハードウェア及び又はプロセッサを構成する為に用いられるソフトウェアの組合せである。 If the hardware in question is a processor that is considered to be a type of "Circuitry," the "Circuitry," "Unit," or "Means" is the combination of the hardware and the software used to configure the hardware and/or processor.

「Processing Circuitry」は、任意のコンピュータベース及びクラウドベースの制御プロセスを制御するために使用されてもよい。後述する動作シーケンス、動作フロー、及びフローチャートにおける、説明又はブロックは、その制御プロセスの特定の論理機能又は工程(steps)を実装するための一又は複数の実行可能な命令を含むモジュール、セグメント、又はコードの一部を示すものとして理解され得る。また、これらの代替実装は、本発明(the present advancements)の例示的な実施形態の範囲内に含まれる。例えば、制御プロセスの特定の論理機能又は工程(steps)は、開示された順序と異なる順序で実行されてもよく、例えば、実質的に同時に実行されてもよく、又は、開示された順序と逆の順序で実行されてもよい。 "Processing Circuitry" may be used to control any computer-based and cloud-based control process. Descriptions or blocks in the operational sequences, operational flows, and flowcharts described below may be understood as indicating modules, segments, or portions of code that include one or more executable instructions for implementing specific logical functions or steps of the control process. These alternative implementations are also included within the scope of exemplary embodiments of the present advancements. For example, specific logical functions or steps of the control process may be performed in a different order than disclosed, e.g., substantially simultaneously, or in a reverse order to that disclosed.

「Processing Circuitry」には、本明細書に開示された制御プロセスのうちの一又は複数の制御プロセスを実行するCPUが含まれもよい。プロセスデータ及び命令は、メモリに格納されもよい。プロセスデータ及び命令は、ハードディスクドライブ(Hard Disk Drive, HDD)又は携帯型記憶媒体などの記憶媒体ディスクに格納されてもよい。プロセスデータ及び命令は、リモートに格納されてもよい。 The "Processing Circuitry" may include a CPU that executes one or more of the control processes disclosed herein. The process data and instructions may be stored in memory. The process data and instructions may be stored on a storage medium disk, such as a Hard Disk Drive (HDD) or a portable storage medium. The process data and instructions may be stored remotely.

特許請求された発明(the claimed advancements)は、本発明のプロセスの命令が格納されるコンピュータ可読媒体の形式によって限定されない。例えば、命令は、CD、DVD、FLASHメモリ、RAM、ROM、PROM、EPROM、EEPROM、ハードディスク、又は「Processing Circuitry」が通信する情報処理装置(他のサーバ装置又はコンピュータ等)の任意の他の不揮発性コンピュータ可読媒体に格納されてもよい。命令は、「Processing Circuitry」によって実行可能であれば、ネットワークベースのストレージ、クラウドベースのストレージ、又は他のモバイルアクセス可能なストレージに格納されてもよい。 The claimed advancements are not limited by the type of computer-readable medium on which the instructions of the inventive process are stored. For example, the instructions may be stored on a CD, DVD, FLASH memory, RAM, ROM, PROM, EPROM, EEPROM, hard disk, or any other non-volatile computer-readable medium of an information processing device (such as another server device or computer) with which the "Processing Circuitry" communicates. The instructions may also be stored on network-based storage, cloud-based storage, or other mobile-accessible storage, provided that the instructions are executable by the "Processing Circuitry."

特許請求された発明(the claimed advancements)は、ユーティリティアプリケーション、バックグラウンドデーモン、オペレーティングシステムのコンポーネント、又は、それらの組み合わせとして提供されてもよい。また、マイクロソフトウィンドウズ(登録商標)、UNIX(登録商標)、ソラリス、LINUX(登録商標)、Apple MAC-OS、Apple iOS、及び当業者に公知の他のシステムを含むオペレーティングシステムと、CPUとが連携して実行されてもよい。 The claimed advancements may be provided as a utility application, a background daemon, a component of an operating system, or any combination thereof, and may be executed in conjunction with a CPU and an operating system, including Microsoft Windows, UNIX, Solaris, LINUX, Apple MAC-OS, Apple iOS, and other systems known to those skilled in the art.

本明細書で開示された機能及び特徴は、情報処理システム1のさまざまな分散コンポーネントによって実行されてもよい。例えば、一又は複数のプロセッサが、これらのシステム機能を実行することができ、各プロセッサは、ネットワーク内で通信可能な複数のコンポーネントに分散されてもよい。分散されたコンポーネントには、さまざまなヒューマンインターフェイス、通信デバイス(ディスプレイモニター、スマートフォン、タブレット、携帯情報端末(PDA)等)、処理を共有する一又は複数のクライアント及びサーバ装置が含まれてもよい。情報処理システム1への入力として、ユーザによる直接の入力が受信されても、リアルタイム又はバッチプロセスによるリモートで入力が受信されてもよい。さらに、実装の一部は、本明細書で開示されているものと同一ではないモジュール又はハードウェアで実行されてもよく、この場合、他の実装も特許請求の範囲内に含まれるものである。 The functions and features disclosed herein may be performed by various distributed components of the information processing system 1. For example, one or more processors may perform these system functions, and each processor may be distributed among multiple components that can communicate within a network. The distributed components may include various human interfaces, communication devices (display monitors, smartphones, tablets, personal digital assistants (PDAs), etc.), and one or more client and server devices that share processing. Input to the information processing system 1 may be received directly by a user or remotely in real time or via a batch process. Furthermore, some of the implementations may be performed in modules or hardware that are not identical to those disclosed herein, in which case other implementations are within the scope of the claims.

端末処理装置27は、制御プログラムに含まれる各種命令を実行することにより、生成部271、送信部272、受信部273、表示処理部274、及び音声出力部275として機能する。生成部271、送信部272、受信部273、表示処理部274、及び音声出力部275の機能については後述する。 The terminal processing device 27 executes various commands included in the control program to function as a generation unit 271, a transmission unit 272, a reception unit 273, a display processing unit 274, and an audio output unit 275. The functions of the generation unit 271, the transmission unit 272, the reception unit 273, the display processing unit 274, and the audio output unit 275 will be described later.

(各種テーブル)
図5は、端末記憶装置22に記憶されるユーザテーブルT1、オブジェクトテーブルT2、及びグループテーブルT3のデータ構造の一例を示す図である。なお、ユーザテーブルT1、オブジェクトテーブルT2、及びグループテーブルT3のうちの少なくとも一つのテーブルは、サーバ装置3のサーバ記憶装置32に記憶されてもよい。この場合、端末装置2は、所定のタイミングで、サーバ記憶装置32に記憶されている最新のテーブルを受信して端末記憶装置22に記憶してもよい。
(Various tables)
5 is a diagram showing an example of the data structures of the user table T1, object table T2, and group table T3 stored in the terminal storage device 22. At least one of the user table T1, object table T2, and group table T3 may be stored in the server storage device 32 of the server device 3. In this case, the terminal device 2 may receive the latest table stored in the server storage device 32 at a predetermined timing and store it in the terminal storage device 22.

(ユーザテーブルT1)
図5(a)は、サーバ装置3によって提供されるサービスを利用するユーザを管理するユーザテーブルT1のデータ構造の一例である。ユーザテーブルT1において管理されるユーザは配信ユーザであるが、配信ユーザ以外のユーザが管理されてもよい。ユーザテーブルT1では、各ユーザについて、ユーザID、ユーザの名称、ユーザのキャラクタオブジェクト、ユーザの保有オブジェクト、及び使用オブジェクト等が、互いに関連付けて記憶されている。ユーザテーブルT1において、ユーザのユーザIDに関連付けて、ユーザの保有コイン(ユーザが保有している仮想的な貨幣価値の「コイン」の総量を示す情報)及び/又はユーザポイント等が記憶されてもよい。ユーザIDは、各ユーザを一意に識別するための識別データの一例である。名称は、各ユーザの名称を示すデータの一例である。
(User Table T1)
FIG. 5(a) is an example of a data structure of a user table T1 that manages users who use the service provided by the server device 3. The users managed in the user table T1 are broadcast users, but users other than broadcast users may also be managed. In the user table T1, for each user, a user ID, the user's name, the user's character object, the user's owned objects, and the used objects are stored in association with each other. In the user table T1, the user's owned coins (information indicating the total amount of "coins" of virtual monetary value held by the user) and/or user points may be stored in association with the user's user ID. The user ID is an example of identification data for uniquely identifying each user. The name is an example of data indicating the name of each user.

例えば、キャラクタオブジェクトは、キャラクタオブジェクトのアニメーションを生成するためのモデルデータを識別するためのモデルIDである。モデルデータは、モデルIDに関連付けられて端末記憶装置22に記憶される。モデルデータは、3次元のアニメーションを生成するための3次元モデルデータであってもよいし、2次元のモデルデータを生成するための2次元モデルデータであってもよい。モデルデータは、例えば、キャラクタオブジェクトの顔及び顔以外の部分の骨格を示すリグデータ(所謂「スケルトンデータ」)と、キャラクタオブジェクトの表面の形状や質感を示す表面データとを含む。モデルデータには、互いに異なる複数のモデルデータが含まれてもよい。複数のモデルデータのそれぞれは、互いに異なるリグデータを有してもよく、又は、同じリグデータを有してもよい。複数のモデルデータのそれぞれは、互いに異なる表面データを有してもよく、又は、同じ表面データを有してもよい。なお、キャラクタオブジェクトを構成する複数の部分オブジェクトのそれぞれに関連付けられた複数のオブジェクトIDが、モデルIDに関連付けられてもよい。この場合、複数の部分オブジェクトのオブジェクトIDごとに、3次元のアニメーションを生成するための3次元モデルデータが端末記憶装置22及びサーバ記憶装置32に記憶されていてもよい。この場合、キャラクタオブジェクトの表示処理において、モデルIDに関連付けられた複数の部分オブジェクトのオブジェクトIDを抽出し、各オブジェクトIDに対応する(各部分オブジェクトの)3次元モデルデータが特定され、特定された(各部分オブジェクトの)3次元モデルデータに基づいてキャラクタオブジェクトが表示されてもよい。また、各3次元モデルデータに対応する画像情報が記憶されてもよい。 For example, the character object is a model ID for identifying model data for generating animation of the character object. The model data is stored in the terminal storage device 22 in association with the model ID. The model data may be three-dimensional model data for generating three-dimensional animation, or two-dimensional model data for generating two-dimensional model data. The model data includes, for example, rig data (so-called "skeleton data") indicating the skeleton of the face and parts other than the face of the character object, and surface data indicating the shape and texture of the surface of the character object. The model data may include multiple model data that are different from each other. Each of the multiple model data may have different rig data from each other, or may have the same rig data. Each of the multiple model data may have different surface data from each other, or may have the same surface data. Note that multiple object IDs associated with each of the multiple partial objects constituting the character object may be associated with the model ID. In this case, three-dimensional model data for generating three-dimensional animation may be stored in the terminal storage device 22 and the server storage device 32 for each object ID of the multiple partial objects. In this case, in the display process of the character object, the object IDs of the multiple partial objects associated with the model ID may be extracted, the three-dimensional model data (of each partial object) corresponding to each object ID may be identified, and the character object may be displayed based on the identified three-dimensional model data (of each partial object). Also, image information corresponding to each three-dimensional model data may be stored.

保有オブジェクトは、各ユーザが保有しているオブジェクトを示すオブジェクトIDである。保有オブジェクトは、キャラクタオブジェクトの特定の部位に関連付けることが可能な装着オブジェクト、及び、配信画像内においてユーザのキャラクタオブジェクトの背面に配置される壁紙オブジェクト等である。装着オブジェクト及び壁紙オブジェクトの詳細は後述する。保有オブジェクトは、上述の例に限らず、配信画面に表示可能であればどのようなオブジェクトでもよい。保有オブジェクトは、ユーザが参加したイベントの結果に応じて、又は、ユーザによって実行された選択ゲーム(例えば、抽選ゲーム)の結果に応じて、ユーザが保有することになったオブジェクトでもよい。また、保有オブジェクトは、情報処理システム1における購入機能において、ユーザが仮想的な貨幣価値の「コイン」を消費することで、ユーザが保有することになったオブジェクトでもよい。 The owned object is an object ID indicating an object owned by each user. The owned object is an attachment object that can be associated with a specific part of a character object, a wallpaper object that is placed behind the user's character object in the distribution image, etc. Details of attachment objects and wallpaper objects will be described later. The owned object is not limited to the above examples, and may be any object that can be displayed on the distribution screen. The owned object may be an object that the user has acquired according to the result of an event in which the user has participated, or according to the result of a selection game (e.g., a lottery game) played by the user. The owned object may also be an object that the user has acquired by spending "coins" of virtual monetary value in the purchase function of the information processing system 1.

使用オブジェクトは、ユーザの端末装置2において表示中の配信画像において使用されているオブジェクトを示すオブジェクトIDである。例えば、動画配信サービス中に、ユーザの変更指示が入力された場合、表示中の配信画像に含まれるユーザのキャラクタオブジェクトに、ユーザの保有オブジェクトとして保有している装着オブジェクトが装着される。この場合、ユーザのキャラクタオブジェクトに装着された装着オブジェクトのオブジェクトIDが、使用オブジェクトとしてユーザIDに関連付けてユーザテーブルT1に記憶される。また、例えば、動画配信サービス中に、ユーザの変更指示が入力された場合、表示中の配信画像においてユーザのキャラクタオブジェクトの背面に、ユーザの保有オブジェクトとして保有している壁紙オブジェクトが配置される。この場合、配信画像に配置された壁紙オブジェクトのオブジェクトIDが、使用オブジェクトとしてユーザIDに関連付けてユーザテーブルT1に記憶される。 The used object is an object ID indicating an object used in the delivery image being displayed on the user's terminal device 2. For example, when a user's change instruction is input during a video delivery service, an attachment object held as one of the user's owned objects is attached to the user's character object included in the delivery image being displayed. In this case, the object ID of the attachment object attached to the user's character object is stored in the user table T1 as a used object in association with the user ID. Also, for example, when a user's change instruction is input during a video delivery service, a wallpaper object held as one of the user's owned objects is placed behind the user's character object in the delivery image being displayed. In this case, the object ID of the wallpaper object placed in the delivery image is stored in the user table T1 as a used object in association with the user ID.

(オブジェクトテーブルT2)
図5(b)は、追加オブジェクトとして選択されるオブジェクトを管理するオブジェクトテーブルT2のデータ構造の一例である。追加オブジェクトは、例えば、視聴ユーザによって配信ユーザに贈られるギフトオブジェクトである。オブジェクトテーブルT2では、各追加オブジェクトについて、オブジェクトID、名称、画像情報、希少度及び配置箇所等が、互いに関連付けて記憶されている。
(Object table T2)
5B is an example of the data structure of an object table T2 that manages objects selected as additional objects. An additional object is, for example, a gift object given to a broadcasting user by a viewing user. In the object table T2, the object ID, name, image information, rarity, placement location, etc. of each additional object are stored in association with each other.

オブジェクトIDは、各追加オブジェクトを一意に識別するための識別データの一例である。画像情報は、各追加オブジェクトに対応する一又は複数の静止画像である。画像情報は、各追加オブジェクトに対応する1種類以上の動画像でもよい。希少度は、各追加オブジェクトの希少度合いを示す情報である。配置箇所は、各追加オブジェクトの画像情報が表示される箇所を示す情報である。なお、キャラクタオブジェクトの表示位置及び表示範囲が定められている場合、当該キャラクタオブジェクトに対する相対的な位置を示す情報が配置箇所として記憶されてもよい。画像情報に代えて、追加オブジェクトのモデルデータが記憶されてもよい。追加オブジェクトのモデルデータには、3次元形状を示すリグデータと表面データとが含まれ、当該モデルデータに基づいて、追加オブジェクトを所定の視点から見た画像が描画される。 The object ID is an example of identification data for uniquely identifying each additional object. The image information is one or more still images corresponding to each additional object. The image information may be one or more types of moving images corresponding to each additional object. The rarity is information indicating the rarity of each additional object. The placement location is information indicating the location where the image information of each additional object is displayed. Note that, if the display position and display range of a character object are determined, information indicating a relative position with respect to the character object may be stored as the placement location. Instead of image information, model data of the additional object may be stored. The model data of the additional object includes rig data and surface data indicating a three-dimensional shape, and an image of the additional object viewed from a specified viewpoint is drawn based on the model data.

追加オブジェクトは、複数の種類(カテゴリ)に分類される。例えば、追加オブジェクトには、エフェクトギフトとして使用されるエフェクトオブジェクトと、通常ギフトとして使用される通常オブジェクトと、装着ギフトとして使用される装着オブジェクトと、メッセージギフトとして使用されるメッセージオブジェクトと、が含まれる。追加オブジェクトに、配信画像内のキャラクタオブジェクトの背面に配置される壁紙オブジェクトが含まれてもよい。なお、追加オブジェクトの種類(カテゴリ)を示す情報が、追加オブジェクトのオブジェクトIDに関連付けてオブジェクトテーブルT2に記憶されてもよい。以下、追加オブジェクトの種類に応じて、画像情報及び配置箇所について説明する。 The additional objects are classified into a number of types (categories). For example, the additional objects include effect objects used as effect gifts, normal objects used as normal gifts, wearable objects used as wearable gifts, and message objects used as message gifts. The additional objects may also include wallpaper objects that are placed behind the character objects in the delivered image. Information indicating the type (category) of the additional object may be stored in object table T2 in association with the object ID of the additional object. Below, image information and placement locations are explained according to the type of additional object.

エフェクトオブジェクトは、配信画像の全体の印象に影響を与えるオブジェクトである。エフェクトオブジェクトは、例えば、紙吹雪を模したオブジェクトである。エフェクトオブジェクトが紙吹雪を模したオブジェクトである場合、画像情報として、複数の紙を示す画像が記憶される。 An effect object is an object that affects the overall impression of the delivered image. An effect object is, for example, an object that resembles confetti. When the effect object is an object that resembles confetti, an image showing multiple pieces of paper is stored as the image information.

エフェクトオブジェクトの配置箇所として「空間」を示す情報が記憶される。例えば、紙吹雪を模したオブジェクトは、配信画像の全体に表示される。エフェクトオブジェクトは、視聴ユーザの指示に応じて、配信ユーザの配信画像を含む配信画面全体に表示されてもよい。エフェクトオブジェクトは、配信画像に含まれるキャラクタオブジェクトと重複するように表示されてもよい。エフェクトオブジェクトは、後述する装着オブジェクトと異なり、キャラクタの特定の部位に関連付けられずに表示される。このように、情報処理システム1の端末装置2は、視聴ユーザの指示に応じて配信ユーザの配信画像にエフェクトオブジェクトを表示することにより、当該エフェクトオブジェクトが表示される前に比べて、配信ユーザの配信画像の全体の印象を変えることができる。 Information indicating "space" as the placement location of the effect object is stored. For example, an object resembling confetti is displayed across the entire broadcast image. The effect object may be displayed across the entire broadcast screen including the broadcast user's broadcast image in response to an instruction from the viewing user. The effect object may be displayed so as to overlap with a character object included in the broadcast image. Unlike wearable objects, which will be described later, the effect object is displayed without being associated with a specific part of the character. In this way, the terminal device 2 of the information processing system 1 can change the overall impression of the broadcast user's broadcast image compared to before the effect object was displayed by displaying an effect object in the broadcast user's broadcast image in response to an instruction from the viewing user.

通常オブジェクトは、例えば、ぬいぐるみ、花束、アクセサリ、又はギフトやプレゼントに適した物品を模したオブジェクトである。通常オブジェクトの配置箇所として「空間」を示す情報が記憶される。例えば、通常オブジェクトには、所定の移動ルートに関する情報が関連付けられており、配信画像内を所定の移動ルートに沿って移動する通常オブジェクトが表示される。「通常オブジェクト」の配置箇所として記憶される「空間」を示す情報は、複数の種類に分類されてもよい。複数の種類の「空間」は、例えば、「中央の空間」(配信画像を左右に3分割した場合の画像中央の領域)、「左の空間」(配信画像を左右に3分割した場合の画像左側の領域)、及び「右の空間」(配信画像を左右に3分割した場合の画像右側の領域)である。また、複数の種類の「空間」は、「中央の空間」(配信画像を上下に3分割した場合の画像中央の領域)、「上の空間」(配信画像を上下に3分割した場合の画像上側の領域)、及び「下の空間」(配信画像を上下に3分割した場合の画像下側の領域)でもよい。この場合、通常オブジェクトに関連付けられた移動ルートは、当該通常オブジェクトの配置箇所として関連付けられた種類の「空間」内に設定される。例えば、通常オブジェクトに、「右の空間」を示す情報が記憶された場合、当該通常オブジェクトに、配信画像を左右に3分割した場合の画像右側の領域内を移動する移動ルートに関する情報が関連付けられる。また、配信画像内の通常オブジェクトごとに設定された位置又は自動的にランダムに決定された位置から、所定の移動ルールに沿って移動する通常オブジェクトが表示されてもよい。所定の移動ルールは、例えば、通常オブジェクトが自由落下しているような移動となるように設定された移動ルールである。なお、通常オブジェクトは、キャラクタオブジェクトと重複するように表示されてもよい。この場合、通常オブジェクトは、後述する装着オブジェクトと異なり、キャラクタオブジェクトの特定の部位に関連付けられずに表示される。また、通常オブジェクトは、キャラクタオブジェクトに接したタイミングで跳ね返るような移動を行うように表示されてもよい。 A normal object is, for example, an object that imitates a stuffed toy, a bouquet, an accessory, or an item suitable for a gift or present. Information indicating a "space" is stored as the placement location of the normal object. For example, information regarding a predetermined movement route is associated with the normal object, and the normal object is displayed moving along the predetermined movement route in the delivery image. The information indicating the "space" stored as the placement location of the "normal object" may be classified into multiple types. The multiple types of "space" are, for example, a "center space" (a region in the center of the image when the delivery image is divided into three parts horizontally), a "left space" (a region on the left side of the image when the delivery image is divided into three parts horizontally), and a "right space" (a region on the right side of the image when the delivery image is divided into three parts horizontally). In addition, the multiple types of "space" may be a "center space" (a region in the center of the image when the delivery image is divided into three parts vertically), an "upper space" (a region on the upper side of the image when the delivery image is divided into three parts vertically), and a "lower space" (a region on the lower side of the image when the delivery image is divided into three parts vertically). In this case, the movement route associated with the normal object is set within the "space" of the type associated with the placement location of the normal object. For example, if information indicating "right space" is stored in a normal object, information regarding a movement route that moves within the area on the right side of the image when the delivery image is divided into three parts horizontally is associated with the normal object. In addition, a normal object that moves according to a predetermined movement rule may be displayed from a position set for each normal object in the delivery image or a position automatically and randomly determined. The predetermined movement rule is, for example, a movement rule set so that the normal object moves as if it is falling freely. Note that the normal object may be displayed so as to overlap with a character object. In this case, unlike an attached object described later, the normal object is displayed without being associated with a specific part of the character object. In addition, the normal object may be displayed so as to move in a manner that bounces back when it comes into contact with the character object.

通常オブジェクトが、配信画像に含まれるキャラクタオブジェクトと重複して表示される場合、例えば、通常オブジェクトは、キャラクタオブジェクトの「『顔』を含む『頭部』以外の部分」と重複するように表示されてもよい。この場合、通常オブジェクトは、キャラクタオブジェクトの「頭部」とは重複しないように表示される。また、通常オブジェクトは、キャラクタオブジェクトの「『顔』を含む『上半身』以外の部分」と重複するように表示されてもよい。この場合、通常オブジェクトは、キャラクタオブジェクトの「上半身」とは重複しないように表示される。 When a normal object is displayed overlapping with a character object included in the distributed image, for example, the normal object may be displayed so as to overlap with "parts other than the 'head', including the 'face', of the character object." In this case, the normal object is displayed so as not to overlap with the "head" of the character object. Also, the normal object may be displayed so as to overlap with "parts other than the 'upper body', including the 'face', of the character object." In this case, the normal object is displayed so as not to overlap with the "upper body" of the character object.

装着オブジェクトは、キャラクタオブジェクトの特定の部位(装着箇所)に関連付けて配信画像に表示されるオブジェクトである。例えば、特定の部位は、キャラクタオブジェクトの頭部における、頭部の前方左側、前方右側、後方左側、後方右側、中央前側、中央後側、左目、右目、左耳、右耳、及び髪全体等である。また、特定の部位は、親指、薬指、手首、肘、肩、二の腕、手全体、腕全体、胴部、上半身、下半身等でもよい。 An attachment object is an object that is displayed in a distributed image in association with a specific part (attachment location) of a character object. For example, specific parts of the character object's head include the front left, front right, rear left, rear right, front center, rear center, left eye, right eye, left ear, right ear, and all of the hair. In addition, specific parts may also be the thumb, ring finger, wrist, elbow, shoulder, upper arm, entire hand, entire arm, torso, upper body, lower body, etc.

キャラクタオブジェクトの特定の部位に関連付けられた装着オブジェクトは、キャラクタオブジェクトの特定の部位に接するように配信画像に表示される。また、キャラクタオブジェクトの特定の部位に関連付けられた装着オブジェクトは、キャラクタオブジェクトの特定の部位の一部又は全部を覆うように配信画像に表示されてもよい。特定の部位は、3次元座標空間における位置を示す3次元位置情報で特定されてもよく、また、3次元座標空間の位置情報に関連付けられてもよい。 A wearable object associated with a specific part of a character object is displayed in the distributed image so as to be in contact with the specific part of the character object. Also, a wearable object associated with a specific part of a character object may be displayed in the distributed image so as to cover a part or all of the specific part of the character object. The specific part may be identified by three-dimensional position information indicating a position in three-dimensional coordinate space, or may be associated with position information in three-dimensional coordinate space.

装着オブジェクトの画像情報は、例えば、キャラクタオブジェクトに装着されるアクセサリ(カチューシャ、ネックレス又はイヤリング等)、衣服(Tシャツ又はワンピース等)、コスチューム、及び、これら以外のキャラクタオブジェクトが装着可能なもの、を模した画像情報である。 The image information of the wearing object is, for example, image information that imitates accessories (headbands, necklaces, earrings, etc.) worn by the character object, clothing (T-shirts, dresses, etc.), costumes, and other items that can be worn by the character object.

装着オブジェクトの配置箇所として、装着オブジェクトがキャラクタオブジェクトのどの部位に関連付けられるかを示す装着部位を示す情報が記憶される。例えば、装着オブジェクトが「カチューシャ」である場合、装着オブジェクトの配置箇所として、キャラクタオブジェクトの「頭部」を示す情報が記憶される。また、装着オブジェクトが「Tシャツ」である場合、装着オブジェクトの配置箇所として、キャラクタオブジェクトの「胴部」を示す情報が記憶される。 As the placement location of the wearing object, information is stored that indicates the wearing part, which indicates which part of the character object the wearing object is associated with. For example, if the wearing object is a "headband", information is stored that indicates the "head" of the character object as the placement location of the wearing object. Also, if the wearing object is a "T-shirt", information is stored that indicates the "torso" of the character object as the placement location of the wearing object.

装着オブジェクトの配置箇所として、3次元座標空間における複数の装着部位を示す情報が記憶されてもよい。例えば、装着オブジェクトが「カチューシャ」である場合、装着オブジェクトの配置箇所として、キャラクタオブジェクトの「頭部後方左側」及び「頭部後方右側」の2つの部位を示す情報が記憶されてもよい。これにより、「カチューシャ」を模した装着オブジェクトは、キャラクタオブジェクトの「頭部後方左側」及び「頭部後方右側」の両方に装着されるように表示される。 Information indicating multiple attachment locations in three-dimensional coordinate space may be stored as the placement location of the attachment object. For example, if the attachment object is a "headband," information indicating two locations, the "rear left side of the head" and the "rear right side of the head" of the character object, may be stored as the placement location of the attachment object. In this way, an attachment object modeled after a "headband" is displayed as being attached to both the "rear left side of the head" and the "rear right side of the head" of the character object.

キャラクタオブジェクトに装着箇所が共通する複数種類の装着オブジェクトが装着される場合、当該複数種類の装着オブジェクトは時間を隔ててキャラクタオブジェクトに装着される。これにより、装着部位が共通する複数種類の装着オブジェクトは、キャラクタオブジェクトに同時に装着されない。例えば、「カチューシャ」を示す装着オブジェクト及び「帽子」を示す装着オブジェクトの装着箇所として、ともに「頭部」が記憶される場合、「カチューシャ」を示す装着オブジェクト及び「帽子」を示す装着オブジェクトは、同時にキャラクタオブジェクトの頭部に表示されない。 When multiple types of attachment objects that are attached to the same attachment location are attached to the character object, the multiple types of attachment objects are attached to the character object at different times. As a result, multiple types of attachment objects that are attached to the same attachment location are not attached to the character object at the same time. For example, if the attachment location of an attachment object indicating a "headband" and an attachment object indicating a "hat" are both stored as "head," the attachment object indicating a "headband" and the attachment object indicating a "hat" will not be displayed on the head of the character object at the same time.

オブジェクトテーブルT2において、追加オブジェクトの種類に応じた表示時間が、当該追加オブジェクトのオブジェクトIDに関連付けて記憶されてもよい。例えば、装着オブジェクトの表示時間は、エフェクトオブジェクトの表示時間及び通常オブジェクトの表示時間よりも長い時間が記憶されてもよい。例えば、装着オブジェクトの表示時間として「60秒」が記憶された場合、エフェクトオブジェクトの表示時間として「5秒」が記憶され、通常オブジェクトの表示時間として「10秒」が記憶されてもよい。 In object table T2, a display time according to the type of additional object may be stored in association with the object ID of the additional object. For example, the display time of an attached object may be stored as a time longer than the display time of an effect object and the display time of a normal object. For example, if "60 seconds" is stored as the display time of an attached object, "5 seconds" may be stored as the display time of an effect object, and "10 seconds" may be stored as the display time of a normal object.

(グループテーブルT3)
図5(c)は、ユーザが所属する情報交換グループを管理するグループテーブルT3のデータ構造の一例である。グループテーブルT3は、ユーザごとに個別に設けられ、図5(c)に示されるグループテーブルT3は、当該グループテーブルT3を記憶する端末装置2を操作するユーザのグループテーブルT3である。
(Group table T3)
Fig. 5(c) shows an example of the data structure of a group table T3 that manages information exchange groups to which a user belongs. The group table T3 is provided individually for each user, and the group table T3 shown in Fig. 5(c) is the group table T3 of the user who operates the terminal device 2 that stores the group table T3.

グループテーブルT3では、各情報交換グループについて、情報交換グループのグループID、情報交換グループの名称、情報交換グループに所属する所属ユーザ等が、互いに関連付けて記憶されている。グループIDは、各情報交換グループを一意に識別するための識別データの一例である。名称は、各情報交換グループの名称を示すデータの一例である。所属ユーザは、情報交換グループに所属する各ユーザのユーザIDである。 In the group table T3, for each information exchange group, the group ID of the information exchange group, the name of the information exchange group, the users belonging to the information exchange group, etc. are stored in association with each other. The group ID is an example of identification data for uniquely identifying each information exchange group. The name is an example of data indicating the name of each information exchange group. The users belonging to the information exchange group are the user IDs of each user belonging to the information exchange group.

なお、グループテーブルT3がサーバ記憶装置32に記憶される場合は、グループテーブルT3ごとに、対応するユーザ(グループテーブルT3を記憶する端末装置2を操作するユーザ)のユーザIDが関連付けて記憶される。 When the group table T3 is stored in the server storage device 32, the user ID of the corresponding user (the user who operates the terminal device 2 that stores the group table T3) is associated with each group table T3 and stored.

図4に戻り、生成部271、送信部272、受信部273、表示処理部274、音声出力部275の機能について説明する。 Returning to FIG. 4, the functions of the generation unit 271, transmission unit 272, reception unit 273, display processing unit 274, and audio output unit 275 will be described.

(生成部271)
生成部271は、端末装置2が、配信ユーザによって操作される配信端末装置として使用される場合に機能する。生成部271は、撮像装置25によって連続的に出力された撮像データを、撮像装置25から取得する。例えば、配信ユーザによって把持された端末装置2(配信端末装置)の撮像装置25は、表示装置23の表示画面を眺める配信ユーザの顔が撮影方向となるように、端末装置2に設けられる。撮像装置25は、撮影方向の配信ユーザの顔を連続的に撮像し、配信ユーザの顔の撮像データを取得し、端末処理装置27の生成部271に出力する。撮像装置25は、配信ユーザの顔以外の部位、例えば、頭部、腕部、手部(指部を含む)、胸部、胴部、脚部、又はこれら以外の部位を撮像して撮像データを取得しても良い。また、撮像装置25は、人物の顔の奥行きを検出可能な3Dカメラであってもよい。
(Generation unit 271)
The generating unit 271 functions when the terminal device 2 is used as a distribution terminal device operated by a distribution user. The generating unit 271 acquires imaging data continuously output by the imaging device 25 from the imaging device 25. For example, the imaging device 25 of the terminal device 2 (distribution terminal device) held by the distribution user is provided on the terminal device 2 so that the face of the distribution user looking at the display screen of the display device 23 is the shooting direction. The imaging device 25 continuously captures the face of the distribution user in the shooting direction, acquires imaging data of the face of the distribution user, and outputs it to the generating unit 271 of the terminal processing device 27. The imaging device 25 may acquire imaging data by capturing an image of a part other than the face of the distribution user, for example, a head, an arm, a hand (including a finger), a chest, a torso, a leg, or a part other than these. The imaging device 25 may also be a 3D camera capable of detecting the depth of a person's face.

生成部271は、連続的に取得した撮像データに基づいて、配信ユーザの顔の動きのデジタル表現であるフェイスモーションデータを、時間の経過に伴って随時生成する。フェイスモーションデータは、所定のサンプリング時間間隔ごとに生成されてもよい。このように、生成部271によって生成されたフェイスモーションデータは、配信ユーザの顔の動き(表情の変化)を時系列的にデジタル表現することができる。 The generation unit 271 generates face motion data, which is a digital representation of the facial movements of the broadcast user, as time passes, based on the continuously acquired imaging data. The face motion data may be generated at predetermined sampling time intervals. In this way, the face motion data generated by the generation unit 271 can digitally represent the facial movements (changes in facial expressions) of the broadcast user in chronological order.

生成部271は、配信ユーザの各部位(頭部、腕部、手部(指部を含む)、胸部、胴部、脚部、又はこれら以外の部位)の位置及び向きのデジタル表現であるボディモーションデータを、連続的に取得した撮像データに基づいて、フェイスモーションデータとともに、又は、フェイスモーションデータとは別に、生成してもよい。 The generation unit 271 may generate body motion data, which is a digital representation of the position and orientation of each part of the distribution user (head, arms, hands (including fingers), chest, torso, legs, or other parts), together with or separately from the facial motion data, based on continuously acquired imaging data.

ボディモーションデータは、配信ユーザに装着された公知のモーションセンサからの検出情報に基づいて生成されてもよい。この場合、端末装置2(配信端末装置)の端末通信I/F21は、配信ユーザに装着されたモーションセンサからの検出情報を無線通信で取得するための所定の通信回路を有する。そして、生成部271は、端末通信I/F21によって取得された検出情報に基づいてボディモーションデータを生成する。ボディモーションデータは、所定のサンプリング時間間隔ごとに生成されてもよい。このように、生成部271によって生成されたボディモーションデータは、配信ユーザの体の動きを時系列的にデジタル表現することができる。 The body motion data may be generated based on detection information from a known motion sensor worn by the broadcasting user. In this case, the terminal communication I/F 21 of the terminal device 2 (broadcasting terminal device) has a predetermined communication circuit for acquiring detection information from the motion sensor worn by the broadcasting user via wireless communication. The generation unit 271 then generates body motion data based on the detection information acquired by the terminal communication I/F 21. The body motion data may be generated at predetermined sampling time intervals. In this way, the body motion data generated by the generation unit 271 can digitally represent the body movements of the broadcasting user in a chronological order.

配信ユーザに装着されたモーションセンサからの検出情報に基づくボディモーションデータの生成は、例えば、撮影スタジオで行われてもよい。この場合、撮影スタジオには、ベースステーションと、トラッキングセンサと、ディスプレイと、が備えられてもよい。ベースステーションは、例えば、多軸レーザーエミッターである。配信ユーザに装着されるモーションセンサは、例えば、HTC CORPORATIONから提供されているVive Trackerでもよく、また、ベースステーションは、例えば、HTC CORPORATIONから提供されているベースステーションでもよい。 The generation of body motion data based on detection information from a motion sensor worn by a broadcasting user may be performed, for example, in a photography studio. In this case, the photography studio may be equipped with a base station, a tracking sensor, and a display. The base station may be, for example, a multi-axis laser emitter. The motion sensor worn by the broadcasting user may be, for example, a Vive Tracker provided by HTC CORPORATION, and the base station may be, for example, a base station provided by HTC CORPORATION.

また、撮影スタジオに隣接した別室に、サポーターコンピュータが設置されていてもよい。撮影スタジオのディスプレイは、サポーターコンピュータから受信した情報を表示するように構成されてもよい。サーバ装置3は、サポーターコンピュータが設置されている部屋と同じ部屋に設置されてもよい。サポーターコンピュータが設置されている部屋と撮影スタジオとはガラス窓によって隔てられていてもよい。この場合、サポーターコンピュータのオペレータは、配信ユーザを視認できる。サポーターコンピュータは、サポーターの操作に応じて、撮影スタジオに備えられた各種装置の設定を変更することができるように構成されてもよい。サポーターコンピュータは、例えば、ベースステーションによる走査インターバルの設定、トラッキングセンサの設定、及びこれら以外の各種機器の各種設定の変更を行うことができる。オペレータは、サポーターコンピュータにメッセージを入力し、当該入力されたメッセージが撮影スタジオのディスプレイに表示されてもよい。 Also, a supporter computer may be installed in a separate room adjacent to the photography studio. The display of the photography studio may be configured to display information received from the supporter computer. The server device 3 may be installed in the same room as the room in which the supporter computer is installed. The room in which the supporter computer is installed and the photography studio may be separated by a glass window. In this case, the operator of the supporter computer can see the broadcast user. The supporter computer may be configured to be able to change the settings of various devices provided in the photography studio in response to the operation of the supporter. The supporter computer can, for example, change the setting of the scanning interval by the base station, the setting of the tracking sensor, and various settings of various other devices. The operator may input a message to the supporter computer, and the input message may be displayed on the display of the photography studio.

生成部271は、随時生成したフェイスモーションデータ及び/又はボディモーションデータを含むキャラクタ動画データを生成し、生成したキャラクタ動画データを、表示処理部274に出力する。以下、フェイスモーションデータ及びボディモーションデータを、モーションデータと総称する場合がある。また、生成部271は、生成したキャラクタ動画データと、端末記憶装置22に記憶された配信ユーザのユーザIDとを送信部272に出力する。なお、生成部271は、マイク26から出力された配信ユーザの音声データを取得した場合、生成したキャラクタ動画データと、取得した音声データと、端末記憶装置22に記憶された配信ユーザのユーザIDと、を送信部272に出力する。 The generation unit 271 generates character video data including facial motion data and/or body motion data generated at any time, and outputs the generated character video data to the display processing unit 274. Hereinafter, facial motion data and body motion data may be collectively referred to as motion data. The generation unit 271 also outputs the generated character video data and the user ID of the broadcast user stored in the terminal storage device 22 to the transmission unit 272. When the generation unit 271 acquires voice data of the broadcast user output from the microphone 26, it outputs the generated character video data, the acquired voice data, and the user ID of the broadcast user stored in the terminal storage device 22 to the transmission unit 272.

(送信部272)
配信ユーザの端末装置2(配信端末装置)の送信部272は、配信ユーザによる配信の開始指示に応じて、配信ユーザによる配信イベントの開始を指示するための配信開始指示に関する情報を、端末記憶装置22に記憶された配信ユーザのユーザIDとともに端末通信I/F21を介してサーバ装置3に送信する。以下、配信ユーザのユーザIDを、配信ユーザIDと称する場合がある。
(Transmitter 272)
In response to an instruction to start a broadcast from the broadcast user, the transmitting unit 272 of the broadcast user's terminal device 2 (broadcast terminal device) transmits information regarding a broadcast start instruction for instructing the broadcast user to start a broadcast event, together with the broadcast user's user ID stored in the terminal storage device 22, to the server device 3 via the terminal communication I/F 21. Hereinafter, the user ID of the broadcast user may be referred to as the broadcast user ID.

また、配信ユーザの端末装置2(配信端末装置)の送信部272は、生成部271から出力された配信ユーザのキャラクタ動画データを、配信イベントにおける配信ユーザの配信画像を表示するための情報として、端末記憶装置22に記憶された配信ユーザIDとともに端末通信I/F21を介してサーバ装置3に送信する。配信ユーザの音声データが、配信ユーザのキャラクタ動画データとともに生成部271から出力された場合、送信部272は、配信ユーザのキャラクタ動画データ及び音声データを、配信ユーザIDとともに、端末通信I/F21を介してサーバ装置3に送信する。 The transmitting unit 272 of the broadcast user's terminal device 2 (broadcast terminal device) transmits the broadcast user's character video data output from the generating unit 271 to the server device 3 via the terminal communication I/F 21 together with the broadcast user ID stored in the terminal storage device 22 as information for displaying the broadcast user's broadcast image in the broadcast event. When the broadcast user's voice data is output from the generating unit 271 together with the broadcast user's character video data, the transmitting unit 272 transmits the broadcast user's character video data and voice data together with the broadcast user ID to the server device 3 via the terminal communication I/F 21.

また、配信ユーザの端末装置2(配信端末装置)の送信部272は、配信ユーザによる配信の終了指示に応じて、配信ユーザによる配信イベントの終了を指示するための配信終了指示に関する情報を、端末記憶装置22に記憶された配信ユーザIDとともに端末通信I/F21を介してサーバ装置3に送信する。 In addition, in response to an instruction to end the broadcast by the broadcast user, the transmission unit 272 of the broadcast user's terminal device 2 (broadcast terminal device) transmits information regarding a broadcast end instruction to instruct the broadcast user to end the broadcast event together with the broadcast user ID stored in the terminal storage device 22 to the server device 3 via the terminal communication I/F 21.

また、視聴ユーザの端末装置2(視聴端末装置)の送信部272は、視聴ユーザによる配信画像の視聴開始指示に応じて、視聴開始指示に関する情報を、配信画像に関する情報と、端末記憶装置22に記憶された視聴ユーザのユーザIDとともに端末通信I/F21を介してサーバ装置3に送信する。配信画像に関する情報は、配信ユーザによって視聴開始が指示された配信画像を特定するための情報であり、たとえば、配信画像の識別情報(配信画像ID)又は配信画像を配信している配信ユーザの配信ユーザID等である。以下、視聴ユーザのユーザIDを、視聴ユーザIDと称する場合がある。 In addition, in response to an instruction by the viewing user to start viewing a distributed image, the transmission unit 272 of the viewing user's terminal device 2 (viewing terminal device) transmits information regarding the viewing start instruction to the server device 3 via the terminal communication I/F 21 together with information regarding the distributed image and the user ID of the viewing user stored in the terminal storage device 22. The information regarding the distributed image is information for identifying the distributed image for which the viewing user has been instructed to start viewing, and is, for example, identification information of the distributed image (distributed image ID) or the broadcast user ID of the broadcast user broadcasting the distributed image. Hereinafter, the user ID of the viewing user may be referred to as the viewing user ID.

また、送信部272は、ユーザが入力装置24を操作することによって入力された各種の指示を示す情報を、端末記憶装置22に記憶されたユーザIDとともに端末通信I/F21を介してサーバ装置3に送信する。ユーザによる各種の指示には、例えば、追加指示、変更指示、及び生成指示等が含まれる。追加指示を示す情報は、配信ユーザの配信画像に含ませる追加オブジェクトのオブジェクトIDと配信ユーザIDと視聴ユーザの端末装置2(視聴端末装置)の端末記憶装置22に記憶された視聴ユーザIDとともにサーバ装置3に送信される。 The transmission unit 272 also transmits information indicating various instructions input by the user by operating the input device 24, together with the user ID stored in the terminal storage device 22, to the server device 3 via the terminal communication I/F 21. Various instructions from the user include, for example, addition instructions, modification instructions, and generation instructions. The information indicating the addition instructions is transmitted to the server device 3 together with the object ID of the additional object to be included in the distribution image of the distribution user, the distribution user ID, and the viewing user ID stored in the terminal storage device 22 of the viewing user's terminal device 2 (viewing terminal device).

配信ユーザによって部分オブジェクトが選択されて、選択された部分オブジェクトによって構成されるキャラクタオブジェクトの作成に関する指示がされた場合、キャラクタオブジェクトのモデルデータを識別するためのモデルIDと、キャラクタオブジェクトを構成する複数の部分オブジェクトのオブジェクトIDとが、配信ユーザの端末装置2(配信端末装置)の端末記憶装置22に記憶されたユーザID等とともに端末通信I/F21を介してサーバ装置3に送信されてもよい。この場合、サーバ装置3は、ユーザIDと、モデルIDと、キャラクタオブジェクトを構成する複数の部分オブジェクトのオブジェクトIDとを互いに関連付けてサーバ記憶装置32に記憶してもよい。 When a partial object is selected by the broadcasting user and an instruction is given regarding the creation of a character object composed of the selected partial objects, a model ID for identifying model data for the character object and object IDs of the multiple partial objects that make up the character object may be transmitted to the server device 3 via the terminal communication I/F 21 together with a user ID and the like stored in the terminal storage device 22 of the broadcasting user's terminal device 2 (broadcasting terminal device). In this case, the server device 3 may store the user ID, model ID, and object IDs of the multiple partial objects that make up the character object in the server storage device 32 in association with each other.

また、サーバ装置3経由で、配信ユーザのキャラクタオブジェクトのモデルデータを識別するためのモデルIDと、ユーザのキャラクタオブジェクトを構成する複数の部分オブジェクトのオブジェクトIDと、ユーザのユーザIDとを受信した視聴ユーザの端末装置2(視聴端末装置)は、受信したユーザIDとモデルIDとキャラクタオブジェクトを構成する複数の部分オブジェクトのオブジェクトIDと、を互いに関連付けて端末記憶装置22に記憶してもよい。これにより、配信ユーザのユーザID(又はモデルID)のみがサーバ装置3経由で視聴ユーザの端末装置2(視聴端末装置)に送信されるだけで、視聴ユーザの端末装置2(視聴端末装置)は、受信したユーザID(又はモデルID)に関連付けられた複数の部分オブジェクトのオブジェクトIDを抽出することができる。そして、視聴ユーザの端末装置2(視聴端末装置)は、抽出した各オブジェクトIDに対応する(各部分オブジェクトの)3次元モデルデータに基づいて配信ユーザのキャラクタオブジェクトを含む配信画像を表示することができる。 Furthermore, the viewing user's terminal device 2 (viewing terminal device) that receives the model ID for identifying model data of the broadcasting user's character object, the object IDs of the multiple partial objects that make up the user's character object, and the user's user ID via the server device 3 may store the received user ID, model ID, and object IDs of the multiple partial objects that make up the character object in the terminal storage device 22 in association with each other. In this way, by simply transmitting the broadcasting user's user ID (or model ID) to the viewing user's terminal device 2 (viewing terminal device) via the server device 3, the viewing user's terminal device 2 (viewing terminal device) can extract the object IDs of the multiple partial objects associated with the received user ID (or model ID). The viewing user's terminal device 2 (viewing terminal device) can then display a broadcast image including the broadcasting user's character object based on the three-dimensional model data (of each partial object) that corresponds to each extracted object ID.

ユーザの端末装置2の送信部272は、ユーザによる、新たな情報交換を開始する指示に応じて、新規開始指示に関する情報を、端末通信I/F21を介してサーバ装置3に送信する。新規開始指示に関する情報とともに、ユーザによって指定された他ユーザのユーザID及び端末装置2の端末記憶装置22に記憶されたユーザIDが、サーバ装置3に送信される。ユーザによって指定された他ユーザは、ユーザによって情報交換の相手として指定された一又は複数のユーザである。以降、ユーザと一又は複数の他ユーザとが所属するグループを、情報交換グループと称する場合がある。 In response to an instruction from the user to start a new information exchange, the transmitting unit 272 of the user's terminal device 2 transmits information regarding the new start instruction to the server device 3 via the terminal communication I/F 21. The user ID of the other user designated by the user and the user ID stored in the terminal storage device 22 of the terminal device 2 are transmitted to the server device 3 together with the information regarding the new start instruction. The other users designated by the user are one or more users designated by the user as partners for information exchange. Hereinafter, a group to which the user and one or more other users belong may be referred to as an information exchange group.

情報交換グループに所属するユーザの端末装置2の送信部272は、ユーザによる、情報交換グループ内の情報交換(例えば、テキストチャット等)を開始する指示に応じて、情報交換開始指示に関する情報を、端末通信I/F21を介してサーバ装置3に送信する。情報交換開始指示に関する情報とともに、端末装置2の端末記憶装置22に記憶された、ユーザが所属する情報交換グループのグループIDが、送信先情報としてサーバ装置3に送信される。なお、サーバ装置3が情報交換グループに所属する各ユーザのユーザIDを記憶しない場合、情報交換開始指示に関する情報とともに、情報交換グループを示すグループID又は情報交換グループに所属する他ユーザのユーザIDを含む送信先情報がサーバ装置3に送信されてもよい。 In response to an instruction from the user to start information exchange (e.g., text chat) within the information exchange group, the transmitting unit 272 of the terminal device 2 of the user belonging to the information exchange group transmits information related to the information exchange start instruction to the server device 3 via the terminal communication I/F 21. The group ID of the information exchange group to which the user belongs, stored in the terminal storage device 22 of the terminal device 2, is transmitted as destination information together with the information related to the information exchange start instruction to the server device 3. Note that if the server device 3 does not store the user IDs of each user belonging to the information exchange group, destination information including the group ID indicating the information exchange group or the user IDs of other users belonging to the information exchange group may be transmitted to the server device 3 together with the information related to the information exchange start instruction.

情報交換グループに所属するユーザの端末装置2の送信部272は、情報交換画面の表示中においてユーザによる入力情報が入力された場合、当該入力情報を、端末通信I/F21を介してサーバ装置3に送信する。入力情報とともに、情報交換グループに所属するユーザの端末装置2の端末記憶装置22に記憶されたユーザID及び送信先情報が、サーバ装置3に送信される。送信先情報は、情報交換グループを示すグループID、又は、情報交換グループに所属する他ユーザのユーザIDである。 When the user inputs information while the information exchange screen is displayed, the transmitting unit 272 of the terminal device 2 of the user who belongs to the information exchange group transmits the input information to the server device 3 via the terminal communication I/F 21. Together with the input information, the user ID and destination information stored in the terminal storage device 22 of the terminal device 2 of the user who belongs to the information exchange group are transmitted to the server device 3. The destination information is a group ID indicating the information exchange group, or a user ID of another user who belongs to the information exchange group.

(受信部273)
視聴ユーザの端末装置2(視聴端末装置)の受信部273は、サーバ装置3から送信された、配信ユーザのキャラクタ動画データ及びユーザIDを、端末通信I/F21を介して受信する。視聴ユーザの端末装置2(視聴端末装置)の受信部273は、サーバ装置3から送信された、配信ユーザのキャラクタ動画データ、音声データ及びユーザIDを、端末通信I/F21を介して受信する。視聴ユーザの端末装置2(視聴端末装置)の受信部273は、サーバ装置3から送信された、配信ユーザの音声データ及びユーザIDを、端末通信I/F21を介して受信する。また、受信部273は、サーバ装置3から送信された、配信ユーザの端末装置2(配信端末装置)及び視聴ユーザの端末装置2(視聴端末装置)の受信部273は、他ユーザの各種の指示を示す情報等を、端末通信I/F21を介して受信する。受信部273は、受信した情報を端末処理装置27に渡す。
(Receiving unit 273)
The receiving unit 273 of the terminal device 2 (viewing terminal device) of the viewing user receives the character video data and user ID of the broadcast user transmitted from the server device 3 via the terminal communication I/F 21. The receiving unit 273 of the terminal device 2 (viewing terminal device) of the viewing user receives the character video data, voice data, and user ID of the broadcast user transmitted from the server device 3 via the terminal communication I/F 21. The receiving unit 273 of the terminal device 2 (viewing terminal device) of the viewing user receives the voice data and user ID of the broadcast user transmitted from the server device 3 via the terminal communication I/F 21. In addition, the receiving unit 273 receives information indicating various instructions of other users, etc. transmitted from the server device 3 via the terminal communication I/F 21. The receiving unit 273 passes the received information to the terminal processing device 27.

サーバ装置3から送信された配信ユーザのキャラクタ動画データ及びユーザIDは、配信ユーザの端末装置2(配信端末装置)の送信部272によってサーバ装置3に送信されたものである。また、サーバ装置3から送信された配信ユーザのキャラクタ動画データ、音声データ及びユーザIDは、配信ユーザの端末装置2(配信端末装置)の送信部272によってサーバ装置3に送信されたものである。また、サーバ装置3から送信された配信ユーザの音声データ及びユーザIDは、配信ユーザの端末装置2(配信端末装置)の送信部272によってサーバ装置3に送信されたものである。 The broadcast user's character video data and user ID transmitted from the server device 3 were transmitted to the server device 3 by the transmitting unit 272 of the broadcast user's terminal device 2 (broadcast terminal device). In addition, the broadcast user's character video data, voice data, and user ID transmitted from the server device 3 were transmitted to the server device 3 by the transmitting unit 272 of the broadcast user's terminal device 2 (broadcast terminal device). In addition, the broadcast user's voice data and user ID transmitted from the server device 3 were transmitted to the server device 3 by the transmitting unit 272 of the broadcast user's terminal device 2 (broadcast terminal device).

情報交換グループに所属するユーザの端末装置2の受信部273は、情報交換グループに所属する他ユーザの端末装置2から送信された新規開始指示に関する情報に応じて、サーバ装置3から送信された新規開始指示に関する情報と、情報交換グループに所属するユーザのユーザIDと、を受信する。 The receiving unit 273 of the terminal device 2 of a user belonging to the information exchange group receives information related to the new start instruction sent from the server device 3 and the user ID of the user belonging to the information exchange group in response to information related to the new start instruction sent from the terminal device 2 of another user belonging to the information exchange group.

情報交換グループに所属するユーザの端末装置2の受信部273は、サーバ装置3から送信された、情報交換グループに所属する他ユーザの入力情報及びユーザIDを、端末通信I/F21を介して受信する。 The receiving unit 273 of the terminal device 2 of a user belonging to the information exchange group receives the input information and user IDs of other users belonging to the information exchange group sent from the server device 3 via the terminal communication I/F 21.

(表示処理部274)
配信ユーザの端末装置2(配信端末装置)の表示処理部274は、配信イベントの開始の指示に応じて、生成部271によって生成されたモーションデータを含むキャラクタ動画データに基づいて描画された画像を配信ユーザの配信画像として表示装置23に表示する。なお、モーションデータは、キャラクタ動画データとして視聴ユーザの端末装置2(視聴端末装置)に送信される。また、視聴ユーザの端末装置2(視聴端末装置)の表示処理部274は、受信部273によって受信された配信ユーザのキャラクタ動画データ(モーションデータ)に基づいて描画された画像を配信ユーザの配信画像として表示装置23に表示する。
(Display Processing Unit 274)
In response to an instruction to start a distribution event, the display processing unit 274 of the terminal device 2 (distribution terminal device) of the distribution user displays an image drawn based on the character video data including the motion data generated by the generation unit 271 as a distribution image of the distribution user on the display device 23. Note that the motion data is transmitted to the terminal device 2 (viewing terminal device) of the viewing user as character video data. In addition, the display processing unit 274 of the terminal device 2 (viewing terminal device) of the viewing user displays an image drawn based on the character video data (motion data) of the distribution user received by the receiving unit 273 on the display device 23 as a distribution image of the distribution user.

以下、モーションデータに基づく配信画像の描画処理について説明する。以下の説明において、配信端末装置におけるモーションデータに基づく配信画像の描画処理では、端末記憶装置22に記憶されたユーザIDが用いられ、視聴端末装置におけるモーションデータに基づく配信画像の描画処理では、サーバ装置3から受信したユーザIDが用いられる。 The drawing process of the distributed image based on the motion data will be described below. In the following description, the drawing process of the distributed image based on the motion data in the distribution terminal device uses the user ID stored in the terminal storage device 22, and the drawing process of the distributed image based on the motion data in the viewing terminal device uses the user ID received from the server device 3.

まず、表示処理部274は、ユーザIDに関連付けられたキャラクタオブジェクトのモデルIDと、使用オブジェクトのオブジェクトIDとをユーザテーブルT1から抽出する。次に、表示処理部274は、抽出したモデルIDに関連付けられたモデルデータと、抽出した使用オブジェクトのオブジェクトIDに関連付けられた画像情報及び配置箇所を端末記憶装置22から読み出す。次に、表示処理部274は、読み出したモデルデータと使用オブジェクトの画像情報及び配置箇所とモーションデータとに基づいて、使用オブジェクトが配置箇所に装着されたキャラクタオブジェクトのアニメーションを生成する。なお、キャラクタオブジェクトのモデルIDに、キャラクタオブジェクトを構成する複数の部分オブジェクトのオブジェクトIDが関連付けられている場合、表示処理部274は、抽出したモデルIDに関連付けられた複数の部分オブジェクトのオブジェクトIDに対応するモデルデータを抽出する。次に、表示処理部274は、読み出した複数の部分オブジェクトのモデルデータと使用オブジェクトの画像情報及び配置箇所とモーションデータとに基づいて、使用オブジェクトが配置箇所に装着されたキャラクタオブジェクトのアニメーションを生成する。なお、使用オブジェクトは、複数の部分オブジェクトの中に含まれてもよい。 First, the display processing unit 274 extracts the model ID of the character object associated with the user ID and the object ID of the used object from the user table T1. Next, the display processing unit 274 reads out the model data associated with the extracted model ID and the image information and placement location associated with the extracted object ID of the used object from the terminal storage device 22. Next, the display processing unit 274 generates an animation of the character object in which the used object is attached to the placement location based on the read model data and the image information, placement location, and motion data of the used object. Note that, if the object IDs of multiple partial objects constituting the character object are associated with the model ID of the character object, the display processing unit 274 extracts model data corresponding to the object IDs of the multiple partial objects associated with the extracted model ID. Next, the display processing unit 274 generates an animation of the character object in which the used object is attached to the placement location based on the read model data of the multiple partial objects and the image information, placement location, and motion data of the used object. Note that the used object may be included in multiple partial objects.

表示処理部274は、モーションデータにフェイスモーションデータが含まれる場合、キャラクタオブジェクトの表情がフェイスモーションデータに基づいて変化するように、キャラクタオブジェクトのアニメーションを生成する。これにより、表示処理部274は、読み出したモデルデータとフェイスモーションデータとに基づいて、配信ユーザの表情の動きに同期して動くキャラクタオブジェクトのアニメーションを生成することができる。表示処理部274は、モーションデータにフェイスモーションデータ及びボディモーションデータが含まれる場合、読み出したモデルデータとフェイスモーションデータ及びボディモーションデータとに基づいて、配信ユーザの表情及び体の動きに同期して動くキャラクタオブジェクトのアニメーションを生成する。次に、表示処理部274は、生成したキャラクタオブジェクトのアニメーション(動画像)と、端末記憶装置22に記憶された背景データを用いて生成した背景を示す背景画像と、を含む配信画像を描画する。そして、表示処理部274は、描画された配信画像を示す描画データを出力し、モーションデータに基づく配信画像の描画処理を終了する。配信画像の描画処理において3次元のモデルデータが用いられた場合、配信画像の描画処理において描画された配信画像は、配信ユーザの表情及び体の動きに同期して動くキャラクタオブジェクトを含む3次元の仮想空間内が描画された動画である。以下、主に、キャラクタオブジェクトのアニメーション(動画像)を含む配信画像について説明するが、配信画像は、キャラクタオブジェクトのアニメーション(動画像)を含むものに限定されない。配信画像は、キャラクタオブジェクトの静止画像を含むものでもよい。また、配信画像は、キャラクタオブジェクトの新たな静止画像が所定時間ごとに表示されるものでもよい。 When the motion data includes face motion data, the display processing unit 274 generates animation of the character object so that the facial expression of the character object changes based on the face motion data. As a result, the display processing unit 274 can generate animation of the character object that moves in synchronization with the facial expression of the distribution user based on the read model data and face motion data. When the motion data includes face motion data and body motion data, the display processing unit 274 generates animation of the character object that moves in synchronization with the facial expression and body movement of the distribution user based on the read model data, face motion data, and body motion data. Next, the display processing unit 274 draws a distribution image including the generated animation (moving image) of the character object and a background image showing the background generated using the background data stored in the terminal storage device 22. Then, the display processing unit 274 outputs drawing data showing the drawn distribution image and ends the drawing process of the distribution image based on the motion data. When three-dimensional model data is used in the drawing process of the distribution image, the distribution image drawn in the drawing process of the distribution image is a moving image drawn in a three-dimensional virtual space including a character object that moves in synchronization with the facial expression and body movement of the distribution user. Below, we will mainly explain delivery images that include animations (moving images) of character objects, but delivery images are not limited to those that include animations (moving images) of character objects. Delivery images may also include still images of character objects. Furthermore, delivery images may be images in which a new still image of a character object is displayed at predetermined time intervals.

また、表示処理部274は、配信ユーザによる変更指示に応じて、配信ユーザの保有オブジェクトである装着オブジェクト又は装着ギフトとして視聴ユーザから送信された装着オブジェクトを適用したキャラクタオブジェクトを、表示装置23に表示する変更処理を実行してもよい。例えば、配信ユーザによって変更指示された装着オブジェクトが「カチューシャ」である場合、表示処理部274は、当該装着オブジェクト(「カチューシャ」)のオブジェクトIDを、ユーザテーブルT1において配信ユーザのユーザIDに関連付けられた保有オブジェクトから抽出し、配信ユーザの使用オブジェクトとして記憶する。表示処理部274は、配信ユーザの使用オブジェクトとして記憶されたオブジェクトIDに関連付けられた画像情報及び配置箇所をオブジェクトテーブルT2から抽出する。次に、表示処理部274は、抽出した画像情報及び配置箇所に基づいて、装着オブジェクト(「カチューシャ」)を頭部(「カチューシャ」のオブジェクトIDに関連付けられた配置箇所)に装着した配信ユーザのキャラクタオブジェクトを含む配信画像を生成する。なお、表示処理部274は、キャラクタオブジェクトの装着部位(配置箇所)の動きに付随して動く装着オブジェクトを装着したキャラクタオブジェクトを含む配信画像を生成してもよい。例えば、配信画像において、装着オブジェクト「カチューシャ」は、キャラクタオブジェクトの頭部の動きに付随して動くように表示される。 In addition, the display processing unit 274 may execute a change process to display on the display device 23 a character object to which an attachment object that is an object owned by the distribution user or an attachment object sent by the viewing user as an attachment gift is applied, in response to a change instruction from the distribution user. For example, if the attachment object instructed to be changed by the distribution user is a "headband", the display processing unit 274 extracts the object ID of the attachment object ("headband") from the owned objects associated with the user ID of the distribution user in the user table T1, and stores it as an object used by the distribution user. The display processing unit 274 extracts image information and a placement location associated with the object ID stored as an object used by the distribution user from the object table T2. Next, the display processing unit 274 generates a distribution image including a character object of the distribution user wearing an attachment object ("headband") on the head (placement location associated with the object ID of the "headband") based on the extracted image information and placement location. The display processing unit 274 may generate a distribution image including a character object wearing an attachment object that moves in conjunction with the movement of the attachment part (placement location) of the character object. For example, in the delivered image, the wearable object "headband" is displayed as moving in conjunction with the movement of the character object's head.

また、視聴ユーザの端末装置2(視聴端末装置)の表示処理部274は、視聴ユーザからの追加オブジェクトの追加指示に応じて、追加オブジェクトを含む配信画像を表示する。また、配信ユーザの端末装置2(配信端末装置)の表示処理部274は、視聴ユーザの端末装置2から受信した追加オブジェクトの追加指示を示す情報に応じて、追加オブジェクトを含む配信画像を表示する。 The display processing unit 274 of the viewing user's terminal device 2 (viewing terminal device) displays a distributed image including the additional object in response to an instruction to add an additional object from the viewing user. The display processing unit 274 of the distribution user's terminal device 2 (distribution terminal device) displays a distributed image including the additional object in response to information indicating an instruction to add an additional object received from the viewing user's terminal device 2.

配信ユーザの端末装置2(配信端末装置)の表示処理部274は、視聴ユーザの端末装置2(視聴端末装置)から追加オブジェクトの追加指示を示す情報とともに受信したオブジェクトIDがいずれかのエフェクトオブジェクトのオブジェクトIDである場合、オブジェクトテーブルT2を参照して、追加指示を示す情報とともに受信したオブジェクトIDに関連付けられたエフェクトオブジェクトの静止画像又は動画像(画像情報)を端末記憶装置22から抽出し、抽出した静止画像又は動画像を含む配信画像を生成する。例えば、紙吹雪や花火を示すエフェクトオブジェクトの追加指示がなされた場合、配信ユーザの端末装置2(配信端末装置)の表示処理部274は、紙吹雪や花火を模したエフェクトオブジェクト(図示せず)の動画像を含む配信画像を生成する。視聴ユーザの端末装置2(視聴端末装置)の表示処理部274は、視聴ユーザからの追加オブジェクトの追加指示を示す情報とともに受信したオブジェクトIDがいずれかのエフェクトオブジェクトのオブジェクトIDである場合、同様に、オブジェクトテーブルT2を参照して、追加指示を示す情報とともに受信したオブジェクトIDに関連付けられたエフェクトオブジェクトの静止画像又は動画像(画像情報)を端末記憶装置22から抽出し、抽出した静止画像又は動画像を含む視聴ユーザの配信画像を生成する。 When the object ID received from the viewing user's terminal device 2 (viewing terminal device) together with the information indicating an instruction to add an additional object is the object ID of one of the effect objects, the display processing unit 274 of the distribution user's terminal device 2 (distribution terminal device) refers to the object table T2, extracts a still image or a moving image (image information) of the effect object associated with the object ID received together with the information indicating the instruction to add from the terminal storage device 22, and generates a distribution image including the extracted still image or moving image. For example, when an instruction to add an effect object showing confetti or fireworks is given, the display processing unit 274 of the distribution user's terminal device 2 (distribution terminal device) generates a distribution image including a moving image of an effect object (not shown) imitating confetti or fireworks. When the object ID received from the viewing user's terminal device 2 (viewing terminal device) together with the information indicating an instruction to add an additional object is the object ID of one of the effect objects, the display processing unit 274 of the viewing user's terminal device 2 (viewing terminal device) similarly refers to the object table T2, extracts a still image or a moving image (image information) of the effect object associated with the object ID received together with the information indicating the instruction to add from the terminal storage device 22, and generates a distribution image of the viewing user including the extracted still image or moving image.

配信ユーザの端末装置2(配信端末装置)の表示処理部274は、視聴ユーザの端末装置2(視聴端末装置)から受信した追加オブジェクトの追加指示を示す情報とともに受信したオブジェクトIDが通常オブジェクトのオブジェクトIDである場合、オブジェクトテーブルT2を参照して、通常オブジェクトのオブジェクトIDに関連付けられた、通常オブジェクトの静止画像又は動画像(画像情報)及び配置箇所を抽出する。次に、配信ユーザの端末装置2(配信端末装置)の表示処理部274は、配置箇所によって示される位置に配置した通常オブジェクトの静止画像又は動画像を含む視聴ユーザの配信画像を生成する。また、視聴ユーザの端末装置2(視聴端末装置)の表示処理部274は、視聴ユーザからの追加オブジェクトの追加指示を示す情報とともに受信したオブジェクトIDが通常オブジェクトのオブジェクトIDである場合、同様に、オブジェクトテーブルT2を参照して、通常オブジェクトのオブジェクトIDに関連付けられた、通常オブジェクトの静止画像又は動画像(画像情報)及び配置箇所を抽出し、配置箇所によって示される位置に配置した通常オブジェクトの静止画像又は動画像を含む視聴ユーザの配信画像を生成する。 When the object ID received together with the information indicating an instruction to add an additional object from the viewing user's terminal device 2 (viewing terminal device) is the object ID of a normal object, the display processing unit 274 of the distribution user's terminal device 2 (distribution terminal device) refers to the object table T2 and extracts a still image or video (image information) of the normal object and the placement location associated with the object ID of the normal object. Next, the display processing unit 274 of the distribution user's terminal device 2 (distribution terminal device) generates a distribution image of the viewing user including a still image or video of the normal object placed at the position indicated by the placement location. In addition, when the object ID received together with the information indicating an instruction to add an additional object from the viewing user is the object ID of a normal object, the display processing unit 274 of the viewing user's terminal device 2 (viewing terminal device) similarly refers to the object table T2 and extracts a still image or video (image information) of the normal object and the placement location associated with the object ID of the normal object, and generates a distribution image of the viewing user including a still image or video of the normal object placed at the position indicated by the placement location.

表示処理部274は、配信画像の表示領域内を移動する通常オブジェクトの動画像を含む配信画像を生成してもよい。例えば、表示処理部274は、通常オブジェクトは、配信画像の上から下に向かって落下するような動きをする通常オブジェクトの動画像を含む配信画像を生成してもよい。この場合、通常オブジェクトは、落下開始から出力画像の下端まで落下する間、配信画像の表示領域内に表示され、配信画像の下端に落下した後に配信画像から消滅してもよい。なお、通常オブジェクトの移動ルートは、配信画像の、左から右の方向、右から左の方向、左上から左下の方向、又はこれら以外の方向のルートでもよく、また、直線軌道、円軌道、楕円軌道、螺旋軌道、又はこれら以外の軌道に沿ったルートでもよい。 The display processing unit 274 may generate a delivery image including a moving image of a normal object moving within the display area of the delivery image. For example, the display processing unit 274 may generate a delivery image including a moving image of a normal object that moves as if it is falling from the top to the bottom of the delivery image. In this case, the normal object may be displayed within the display area of the delivery image from the start of the fall until it falls to the bottom of the output image, and may disappear from the delivery image after it falls to the bottom of the delivery image. Note that the movement route of the normal object may be a route from left to right, right to left, or top left to bottom left of the delivery image, or a route along a direction other than these, and may also be a route along a straight orbit, a circular orbit, an elliptical orbit, a spiral orbit, or a route along a orbit other than these.

配信ユーザの端末装置2(配信端末装置)の表示処理部274は、視聴ユーザからの追加オブジェクトの追加指示を示す情報とともに受信したオブジェクトIDが装着オブジェクトのオブジェクトIDである場合、配信画像内に、装着指示に関する通知情報を表示する。次に、表示処理部274は、オブジェクトテーブルT2を参照して、追加指示を示す情報とともに受信したオブジェクトIDに関連付けられた装着オブジェクトの画像情報及び配置箇所を抽出する。次に、表示処理部274は、抽出した画像情報及び配置箇所に基づいて、装着オブジェクトを、配置箇所によって示される装着部位に装着した配信ユーザのキャラクタオブジェクトを含む配信画像を生成する。また、視聴ユーザの端末装置2(視聴端末装置)の表示処理部274は、視聴ユーザからの追加オブジェクトの追加指示を示す情報とともに受信したオブジェクトIDが装着オブジェクトのオブジェクトIDである場合、配信画像内に、装着指示に関する通知情報を表示する。次に、表示処理部274は、オブジェクトテーブルT2を参照して、追加指示を示す情報とともに受信したオブジェクトIDに関連付けられた装着オブジェクトの画像情報及び配置箇所を抽出する。次に、表示処理部274は、抽出した画像情報及び配置箇所に基づいて、装着オブジェクトを、配置箇所によって示される装着部位に装着した配信ユーザのキャラクタオブジェクトを含む配信画像を生成する。 If the object ID received together with the information indicating an instruction to add an additional object from the viewing user is the object ID of a wearing object, the display processing unit 274 of the terminal device 2 (distribution terminal device) displays notification information regarding the wearing instruction in the distribution image. Next, the display processing unit 274 refers to the object table T2 to extract image information and a placement location of the wearing object associated with the object ID received together with the information indicating the addition instruction. Next, the display processing unit 274 generates a distribution image including the character object of the distribution user wearing the wearing object at the wearing part indicated by the placement location based on the extracted image information and placement location. Also, if the object ID received together with the information indicating an instruction to add an additional object from the viewing user is the object ID of a wearing object, the display processing unit 274 of the terminal device 2 (viewing terminal device) displays notification information regarding the wearing instruction in the distribution image. Next, the display processing unit 274 refers to the object table T2 to extract image information and a placement location of the wearing object associated with the object ID received together with the information indicating the addition instruction. Next, based on the extracted image information and placement location, the display processing unit 274 generates a delivery image including the broadcast user's character object wearing the attachment object on the attachment part indicated by the placement location.

また、ユーザの端末装置2の表示処理部274は、ユーザによる新たな情報交換を開始する指示に応じて、当該ユーザと当該ユーザによって指定された全ての他ユーザが所属する新たな情報交換グループに係る情報交換画面を表示する。また、ユーザの端末装置2の表示処理部274は、他ユーザの新規開始指示に関する情報と新たな情報交換グループに所属する各ユーザのユーザIDが受信部273によって受信された場合、当該情報交換グループに係る情報交換画面を表示する。 In addition, in response to an instruction from the user to start a new information exchange, the display processing unit 274 of the user's terminal device 2 displays an information exchange screen related to a new information exchange group to which the user and all other users designated by the user belong. In addition, when the receiving unit 273 receives information related to a new start instruction from other users and the user IDs of each user belonging to the new information exchange group, the display processing unit 274 of the user's terminal device 2 displays an information exchange screen related to the information exchange group.

また、情報交換グループに所属するユーザの端末装置2の表示処理部274は、ユーザによる、情報交換グループ内の情報交換を開始する指示に応じて、当該情報交換グループに係る情報交換画面を表示する。また、情報交換グループに所属するユーザの端末装置2の表示処理部274は、当該情報交換グループに所属する他ユーザの情報交換開始指示に関する情報と当該情報交換グループに所属する各ユーザのユーザIDが受信部273によって受信された場合、当該情報交換グループに係る情報交換画面を表示する。 In addition, the display processing unit 274 of the terminal device 2 of a user belonging to an information exchange group displays an information exchange screen related to the information exchange group in response to an instruction from the user to start information exchange within the information exchange group. In addition, when the receiving unit 273 receives information related to an instruction to start information exchange by other users belonging to the information exchange group and the user IDs of each user belonging to the information exchange group, the display processing unit 274 of the terminal device 2 of a user belonging to an information exchange group displays an information exchange screen related to the information exchange group.

また、情報交換グループに所属するユーザの端末装置2の表示処理部274は、情報交換画面の表示中においてユーザによる入力情報が入力された場合、入力された入力情報を、情報交換画面のユーザ表示領域の最新の入力情報の下に表示する。また、情報交換グループに所属するユーザの端末装置2の表示処理部274は、情報交換画面の表示中において、他ユーザによる入力情報が受信部273によって受信された場合、受信された入力情報を、情報交換画面の他ユーザ表示領域の最新の入力情報の下に表示する。 In addition, when input information is input by a user while the information exchange screen is displayed, the display processing unit 274 of the terminal device 2 of a user belonging to the information exchange group displays the input information below the most recently input information in the user display area of the information exchange screen.In addition, when input information by another user is received by the receiving unit 273 while the information exchange screen is displayed, the display processing unit 274 of the terminal device 2 of a user belonging to the information exchange group displays the received input information below the most recently input information in the other user display area of the information exchange screen.

(音声出力部275)
視聴ユーザの端末装置2(視聴端末装置)の音声出力部275は、配信ユーザの音声データが受信部273によって受信された場合、音声データに基づいて生成される配信ユーザの音声をスピーカ(図示せず)から音声出力する。また、視聴端末装置の音声出力部275は、配信ユーザのキャラクタ動画データ及び音声データが受信された場合、表示処理部274による配信ユーザの配信画像の表示とともに、音声データに基づく配信ユーザの音声をスピーカから音声出力する。これにより、配信画像に含まれる配信ユーザのキャラクタオブジェクトの唇の動作中に、配信ユーザの音声が出力されるため、視聴ユーザは、音声を発しているような配信ユーザのキャラクタオブジェクトを含む配信画像を視聴することができる。
(Audio output unit 275)
When the audio data of the broadcast user is received by the receiving unit 273, the audio output unit 275 of the viewing user's terminal device 2 (viewing terminal device) outputs the broadcast user's voice generated based on the audio data from a speaker (not shown). Furthermore, when the audio output unit 275 of the viewing terminal device receives the broadcast user's character video data and audio data, it outputs the broadcast user's voice based on the audio data from a speaker along with the display of the broadcast user's broadcast image by the display processing unit 274. As a result, the broadcast user's voice is output while the lips of the broadcast user's character object included in the broadcast image are moving, so the viewing user can view a broadcast image including the broadcast user's character object that appears to be making a sound.

(サーバ装置3)
図6は、サーバ装置3の概略構成の一例を示す図である。複数のユーザのそれぞれの端末装置2に動画配信サービス及び情報交換サービス等の各種サービスを提供するサーバ装置3は、配信ユーザの端末装置2から送信された配信ユーザのキャラクタ動画データ及び各種の指示を示す情報を、一又は複数の視聴ユーザの端末装置2に送信する。また、サーバ装置3は、一のユーザの端末装置から受信した入力情報(テキスト情報、スタンプ画像等)を、一のユーザと同一の情報交換グループに所属する一又は複数の他のユーザの端末装置2に送信する。また、サーバ装置3は、一のユーザの端末装置2から受信した情報を、当該情報と同時に受信した送信先情報に含まれるユーザIDによって示されるユーザの端末装置2に送信してもよい。そのために、サーバ装置3は、サーバ通信I/F31と、サーバ記憶装置32と、サーバ処理装置33とを備える。
(Server device 3)
6 is a diagram showing an example of a schematic configuration of the server device 3. The server device 3, which provides various services such as a video distribution service and an information exchange service to each terminal device 2 of a plurality of users, transmits information indicating character video data of the distribution user and various instructions transmitted from the terminal device 2 of the distribution user to the terminal device 2 of one or more viewing users. In addition, the server device 3 transmits input information (text information, stamp image, etc.) received from the terminal device of one user to the terminal device 2 of one or more other users belonging to the same information exchange group as the one user. In addition, the server device 3 may transmit information received from the terminal device 2 of one user to the terminal device 2 of a user indicated by a user ID included in the destination information received simultaneously with the information. For this purpose, the server device 3 includes a server communication I/F 31, a server storage device 32, and a server processing device 33.

サーバ通信I/F31は、ハードウェア、ファームウェア、又はTCP/IPドライバやPPPドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装される。サーバ装置3は、サーバ通信I/F31を介して、他の装置に情報を送信し且つ他の装置から情報を受信することができる。 The server communication I/F 31 is implemented as hardware, firmware, or communication software such as a TCP/IP driver or a PPP driver, or a combination of these. The server device 3 can send information to other devices and receive information from other devices via the server communication I/F 31.

サーバ記憶装置32は、例えば、ROM、RAM等の半導体メモリ装置である。サーバ記憶装置32は、例えば、磁気ディスク、光ディスク、又はデータを記憶可能な前記以外の各種記憶装置でもよい。サーバ記憶装置32は、サーバ処理装置33における処理に用いられるオペレーティングシステムプログラム、ドライバプログラム、アプリケーションプログラム及びデータ等を記憶する。なお、サーバ記憶装置32は、データとして、ユーザテーブルT1、オブジェクトテーブルT2、及びグループテーブルT3を記憶してもよい。なお、サーバ記憶装置32は、データとして、配信中の配信ユーザの配信ユーザIDを記憶し、配信ユーザの配信ユーザIDに関連付けて、当該配信ユーザの配信画像を視聴中の視聴ユーザのユーザID(視聴ユーザID)を記憶する。なお、配信ユーザIDは、配信画像に関する情報の一種である。配信画像に関する情報は、配信画像の識別情報(配信画像ID)でもよい。例えば、配信画像IDと配信ユーザIDと視聴ユーザIDとが互いに関連付けて記憶されてもよい。 The server storage device 32 is, for example, a semiconductor memory device such as a ROM or a RAM. The server storage device 32 may be, for example, a magnetic disk, an optical disk, or any other storage device capable of storing data. The server storage device 32 stores an operating system program, a driver program, an application program, data, and the like used in processing in the server processing device 33. The server storage device 32 may store, as data, a user table T1, an object table T2, and a group table T3. The server storage device 32 stores, as data, the broadcast user ID of a broadcast user currently broadcasting, and stores the user ID (viewing user ID) of a viewing user currently viewing a broadcast image of the broadcast user in association with the broadcast user ID of the broadcast user. The broadcast user ID is a type of information related to the broadcast image. The information related to the broadcast image may be identification information (broadcast image ID) of the broadcast image. For example, the broadcast image ID, the broadcast user ID, and the viewing user ID may be stored in association with each other.

サーバ処理装置33は、サーバ記憶装置32に記憶されているオペレーティングシステムプログラム、ドライバプログラム、及び制御プログラムをメモリにロードし、ロードしたプログラムに含まれる命令を実行するプロセッサである。サーバ処理装置33は、例えば、CPU、MPU、DSP、GPU等の電子回路、又は各種電子回路の組み合わせである。サーバ処理装置33は、ASIC、PLD、FPGA、MCU等の集積回路により実現されてもよい。図6においては、サーバ処理装置33が単一の構成要素として図示されているが、サーバ処理装置33は複数の物理的に別体のプロセッサの集合であってもよい。例えば、命令を実行するために協調的に並列に動作する複数のプロセッサが実装されてもよい。サーバ処理装置33は、制御プログラムに含まれる各種命令を実行することにより、サーバ受信部331、及びサーバ送信部332として機能する。 The server processing device 33 is a processor that loads the operating system program, driver program, and control program stored in the server storage device 32 into memory and executes the instructions contained in the loaded programs. The server processing device 33 is, for example, an electronic circuit such as a CPU, MPU, DSP, or GPU, or a combination of various electronic circuits. The server processing device 33 may be realized by an integrated circuit such as an ASIC, PLD, FPGA, or MCU. In FIG. 6, the server processing device 33 is illustrated as a single component, but the server processing device 33 may be a collection of multiple physically separate processors. For example, multiple processors that operate in parallel in a cooperative manner to execute instructions may be implemented. The server processing device 33 functions as a server receiving unit 331 and a server transmitting unit 332 by executing various instructions included in the control program.

(サーバ受信部331)
サーバ受信部331は、配信ユーザの端末装置2(配信端末装置)から送信された配信開始指示に関する情報を、配信ユーザIDとともに、サーバ通信I/F31を介して受信する。サーバ受信部331は、配信ユーザの端末装置2(配信端末装置)から送信された配信終了指示に関する情報を、配信ユーザIDとともに、サーバ通信I/F31を介して受信する。また、サーバ受信部331は、配信ユーザの端末装置2(配信端末装置)から送信された配信ユーザの配信画像を表示するための情報を、配信ユーザIDとともに、サーバ通信I/F31を介して受信する。
(Server Receiving Unit 331)
The server receiving unit 331 receives information regarding a broadcast start instruction transmitted from the broadcast user's terminal device 2 (broadcast terminal device) together with the broadcast user ID via the server communication I/F 31. The server receiving unit 331 receives information regarding a broadcast end instruction transmitted from the broadcast user's terminal device 2 (broadcast terminal device) together with the broadcast user ID via the server communication I/F 31. The server receiving unit 331 also receives information for displaying the broadcast user's broadcast image transmitted from the broadcast user's terminal device 2 (broadcast terminal device) together with the broadcast user ID via the server communication I/F 31.

また、サーバ受信部331は、視聴ユーザの端末装置2(視聴端末装置)から送信された視聴開始指示に関する情報を、配信画像に関する情報及び視聴ユーザIDとともに、サーバ通信I/F31を介して受信する。サーバ受信部331は、視聴ユーザの端末装置2(視聴端末装置)から送信された追加指示を示す情報を、オブジェクトID、配信ユーザID、及び視聴ユーザIDとともに、サーバ通信I/F31を介して受信する。 The server receiving unit 331 also receives information regarding a viewing start instruction sent from the viewing user's terminal device 2 (viewing terminal device) together with information regarding the distributed image and the viewing user ID via the server communication I/F 31. The server receiving unit 331 receives information indicating an additional instruction sent from the viewing user's terminal device 2 (viewing terminal device) together with the object ID, distribution user ID, and viewing user ID via the server communication I/F 31.

また、サーバ受信部331は、新たに情報交換(例えばテキストチャット)を開始したいユーザの端末装置2から、サーバ通信I/F31を介して、新規開始指示に関する情報、当該ユーザのユーザID、及び情報交換の相手として選択された他ユーザのユーザIDを受信する。この場合、サーバ受信部331は、新たな情報交換グループのグループIDを設定する。そして、サーバ受信部331は、受信したユーザのユーザID及び他ユーザのユーザIDを、新たな情報交換グループに所属するユーザIDとして、新たな情報交換グループのグループIDに関連付けてサーバ記憶装置32に記憶する。 The server receiving unit 331 also receives, via the server communication I/F 31, from the terminal device 2 of a user who wishes to start a new information exchange (e.g., text chat), information regarding a new start instruction, the user ID of the user, and the user ID of the other user selected as the partner for the information exchange. In this case, the server receiving unit 331 sets the group ID of the new information exchange group. The server receiving unit 331 then stores the received user ID of the user and the user ID of the other user as user IDs belonging to the new information exchange group in the server storage device 32 in association with the group ID of the new information exchange group.

また、サーバ受信部331は、情報交換グループに所属するユーザの端末装置2から、サーバ通信I/F31を介して、情報交換開始指示に関する情報、当該ユーザのユーザID、及び送信先情報を受信する。サーバ受信部331は、受信した送信先情報が情報交換グループを示すグループIDである場合、サーバ記憶装置32を参照し、送信先情報として受信されたグループIDに関連付けられたユーザのユーザIDを抽出する。そして、サーバ受信部331は、抽出したユーザIDを送信先の端末装置2のユーザのユーザIDとして特定する。また、サーバ受信部331は、受信した送信先情報がユーザIDである場合、送信先情報として受信したユーザIDを送信先の端末装置2のユーザのユーザIDとして特定する。そして、サーバ受信部331は、受信した情報交換開始指示に関する情報及び送信先の端末装置2のユーザのユーザIDを、サーバ送信部332に渡す。 The server receiving unit 331 also receives information related to the information exchange start instruction, the user ID of the user, and destination information from the terminal device 2 of the user belonging to the information exchange group via the server communication I/F 31. If the received destination information is a group ID indicating an information exchange group, the server receiving unit 331 refers to the server storage device 32 and extracts the user ID of the user associated with the group ID received as the destination information. The server receiving unit 331 then identifies the extracted user ID as the user ID of the user of the destination terminal device 2. If the received destination information is a user ID, the server receiving unit 331 identifies the user ID received as the destination information as the user ID of the user of the destination terminal device 2. The server receiving unit 331 then passes the received information related to the information exchange start instruction and the user ID of the user of the destination terminal device 2 to the server transmitting unit 332.

また、サーバ受信部331は、情報交換グループに所属するユーザの端末装置2から、サーバ通信I/F31を介して、当該ユーザによって入力された入力情報、当該ユーザのユーザID、及び送信先情報を受信する。次に、サーバ受信部331は、受信した送信先情報に基づいて、送信先の端末装置2のユーザのユーザIDを抽出する。サーバ受信部331は、受信した入力情報、入力情報を入力したユーザのユーザID、及び送信先の端末装置2のユーザのユーザIDを、サーバ送信部332に渡す。 The server receiving unit 331 also receives, via the server communication I/F 31, input information entered by a user from a terminal device 2 of a user belonging to the information exchange group, the user ID of that user, and destination information. Next, the server receiving unit 331 extracts the user ID of the user of the destination terminal device 2 based on the received destination information. The server receiving unit 331 passes the received input information, the user ID of the user who entered the input information, and the user ID of the user of the destination terminal device 2 to the server transmitting unit 332.

(サーバ送信部332)
サーバ送信部332は、サーバ受信部331によって受信された配信ユーザのキャラクタ動画データ及びユーザIDを、サーバ記憶装置32に記憶された、当該配信ユーザの配信ユーザIDに関連付けられた視聴ユーザIDによって示される視聴ユーザの端末装置2(視聴端末装置)にサーバ通信I/F31を介して送信する。サーバ送信部332は、サーバ受信部331によって受信された配信ユーザのキャラクタ動画データ、音声データ及びユーザIDを、サーバ記憶装置32に記憶された、当該配信ユーザの配信ユーザIDに関連付けられた視聴ユーザIDによって示される視聴ユーザの端末装置2(視聴端末装置)にサーバ通信I/F31を介して送信する。
(Server transmission unit 332)
The server transmitting unit 332 transmits the broadcast user's character video data and user ID received by the server receiving unit 331 via the server communication I/F 31 to the viewing user's terminal device 2 (viewing terminal device) indicated by the viewing user ID associated with the broadcast user ID of the broadcast user stored in the server storage device 32. The server transmitting unit 332 transmits the broadcast user's character video data, audio data, and user ID received by the server receiving unit 331 via the server communication I/F 31 to the viewing user's terminal device 2 (viewing terminal device) indicated by the viewing user ID associated with the broadcast user ID of the broadcast user stored in the server storage device 32.

また、サーバ送信部332は、サーバ受信部331によって受信された配信ユーザによる各種の指示を示す情報を、サーバ記憶装置32に記憶された、当該配信ユーザの配信ユーザIDに関連付けられた視聴ユーザIDによって示される視聴ユーザの端末装置2(視聴端末装置)にサーバ通信I/F31を介して送信する。また、サーバ送信部332は、サーバ受信部331によって受信された視聴ユーザによる各種の指示を示す情報を、当該視聴ユーザのユーザIDに関連付けられた配信ユーザIDによって示される配信ユーザの端末装置2、及び、当該配信ユーザIDに関連付けられた他の視聴ユーザのユーザIDによって示される視聴ユーザの端末装置2にサーバ通信I/F31を介して送信する。 The server transmitting unit 332 also transmits information indicating various instructions from the broadcast user received by the server receiving unit 331 via the server communication I/F 31 to the terminal device 2 (viewing terminal device) of the viewing user indicated by the viewing user ID associated with the broadcast user ID of the broadcast user stored in the server storage device 32. The server transmitting unit 332 also transmits information indicating various instructions from the viewing user received by the server receiving unit 331 via the server communication I/F 31 to the terminal device 2 of the broadcast user indicated by the broadcast user ID associated with the user ID of the viewing user, and to the terminal device 2 of the viewing user indicated by the user ID of another viewing user associated with the broadcast user ID.

また、サーバ受信部331による新たな情報交換グループのグループIDの設定に応じて、サーバ送信部332は、新たな情報交換グループのグループIDに関連付けられた、新たな情報交換グループに所属するユーザIDを、サーバ記憶装置32から抽出する。そして、サーバ送信部332は、抽出されたユーザIDによって識別されるユーザの端末装置2に、新たな情報交換グループに関する情報交換画面の表示指示に関する情報を、サーバ通信I/F31を介して送信する。 In addition, in response to the group ID of the new information exchange group being set by the server receiving unit 331, the server transmitting unit 332 extracts the user IDs belonging to the new information exchange group that are associated with the group ID of the new information exchange group from the server storage device 32. The server transmitting unit 332 then transmits information regarding a display instruction for an information exchange screen for the new information exchange group to the terminal device 2 of the user identified by the extracted user ID via the server communication I/F 31.

また、サーバ送信部332は、サーバ受信部331から、情報交換開始指示に関する情報及び送信先情報を受け取ると、送信先情報に係るユーザIDによって識別されるユーザの端末装置2に、受け取った情報交換開始指示に関する情報交換画面の表示指示に関する情報を、サーバ通信I/F31を介して送信する。 In addition, when the server transmitting unit 332 receives information related to an instruction to start information exchange and destination information from the server receiving unit 331, it transmits information related to an instruction to display an information exchange screen related to the received instruction to start information exchange to the terminal device 2 of the user identified by the user ID related to the destination information via the server communication I/F 31.

また、サーバ送信部332は、サーバ受信部331から、入力情報、入力情報を入力したユーザのユーザID、及び送信先の端末装置2のユーザのユーザIDを受け取ると、送信先の端末装置2のユーザのユーザIDのうち、入力情報を入力したユーザのユーザID以外のユーザIDによって識別されるユーザの端末装置2に、受け取った入力情報を、サーバ通信I/F31を介して送信する。 When the server transmitting unit 332 receives input information, the user ID of the user who input the input information, and the user ID of the user of the destination terminal device 2 from the server receiving unit 331, the server transmitting unit 332 transmits the received input information via the server communication I/F 31 to the terminal device 2 of a user identified by a user ID of the user of the destination terminal device 2 other than the user ID of the user who input the input information.

(各種画面の例)
以下、図7~図15を参照し、ユーザの端末装置2の表示装置23に表示される各種画面の例について説明する。図7~図15において、同一の符号が付されている複数の構成要素は、互いに等価な機能を有する構成要素である。
(Examples of various screens)
7 to 15, examples of various screens displayed on the display device 23 of the user's terminal device 2 will be described below. In Fig. 7 to 15, multiple components with the same reference numerals are components having equivalent functions.

図7(a)は、配信ユーザの端末装置2(配信端末装置)の表示装置23に表示される配信画面600の一例を示す図である。配信画面600には、キャラクタオブジェクト601を含む配信画像602と、応答情報表示領域603と、配信終了ボタン604と、が含まれる。図7(b)は、視聴ユーザの端末装置2(視聴端末装置)の表示装置23に表示される配信画面610の一例を示す図である。配信画面610には、キャラクタオブジェクト611を含む配信画像612と、評価ボタン613と、追加ボタン614と、コメントボタン615と、応答情報表示領域616と、視聴終了ボタン617と、が含まれる。 Fig. 7(a) is a diagram showing an example of a distribution screen 600 displayed on the display device 23 of the distribution user's terminal device 2 (distribution terminal device). The distribution screen 600 includes a distribution image 602 including a character object 601, a response information display area 603, and an end distribution button 604. Fig. 7(b) is a diagram showing an example of a distribution screen 610 displayed on the display device 23 of the viewing user's terminal device 2 (viewing terminal device). The distribution screen 610 includes a distribution image 612 including a character object 611, a rating button 613, an add button 614, a comment button 615, a response information display area 616, and an end viewing button 617.

配信ユーザの端末装置2(配信端末装置)は、配信イベントの開始に応じて、送信部272による配信開始指示に関する情報のサーバ装置3への送信処理を実行する。配信イベントは、表示装置23に表示されたホーム画面等の所定の画面(図示せず)に対する配信ユーザの操作に応じて、配信ユーザによる配信イベントの開始指示が入力装置24から端末処理装置27に入力された場合に開始される。次に、端末装置2(配信端末装置)は、送信部272によるキャラクタ動画データ等の送信処理と表示処理部274による配信画面600の表示処理とを同時に(並行して)実行する。 In response to the start of a distribution event, the terminal device 2 (distribution terminal device) of the distribution user executes a process of transmitting information related to a distribution start instruction to the server device 3 by the transmission unit 272. The distribution event is started when an instruction to start a distribution event by the distribution user is input from the input device 24 to the terminal processing device 27 in response to an operation by the distribution user on a specific screen (not shown) such as a home screen displayed on the display device 23. Next, the terminal device 2 (distribution terminal device) simultaneously (in parallel) executes a process of transmitting character video data, etc. by the transmission unit 272 and a process of displaying the distribution screen 600 by the display processing unit 274.

視聴ユーザの端末装置2(視聴端末装置)の受信部273によって、現在配信を行っている1人以上の配信ユーザを示す情報が受信された場合、端末装置2(視聴端末装置)の表示処理部274は、配信イベント選択画面(図示せず)を表示装置23に表示する。配信イベント選択画面には、現在配信を行っている1人以上の配信ユーザを選択するための選択肢オブジェクトが含まれる。次に、端末装置2(視聴端末装置)の送信部272は、配信イベント選択画面に含まれる1人以上の配信ユーザの中から視聴ユーザによる入力装置24の操作に応じて選択された配信ユーザを示す情報を入力装置24から取得する。このように、送信部272は、視聴ユーザによる配信画像の視聴開始指示を入力装置24から受け付ける。そして、送信部272は、選択された配信ユーザを示す情報を含む視聴開始指示に関する情報、配信画像に関する情報、及び端末記憶装置22に記憶された視聴ユーザのユーザIDを、端末通信I/F21を介してサーバ装置3に送信する。 When the receiving unit 273 of the terminal device 2 (viewing terminal device) of the viewing user receives information indicating one or more broadcast users who are currently broadcasting, the display processing unit 274 of the terminal device 2 (viewing terminal device) displays a broadcast event selection screen (not shown) on the display device 23. The broadcast event selection screen includes option objects for selecting one or more broadcast users who are currently broadcasting. Next, the transmitting unit 272 of the terminal device 2 (viewing terminal device) acquires information indicating a broadcast user selected from one or more broadcast users included in the broadcast event selection screen in response to the viewing user's operation of the input device 24 from the input device 24. In this way, the transmitting unit 272 accepts an instruction from the viewing user to start viewing the broadcast image from the input device 24. Then, the transmitting unit 272 transmits information regarding the viewing start instruction including information indicating the selected broadcast user, information regarding the broadcast image, and the user ID of the viewing user stored in the terminal storage device 22 to the server device 3 via the terminal communication I/F 21.

サーバ装置3のサーバ受信部331は、端末装置2(視聴端末装置)から送信された視聴開始指示に関する情報、配信画像に関する情報、及び視聴ユーザのユーザIDを、サーバ通信I/F31を介して受信する。次に、サーバ装置3のサーバ送信部332は、視聴開始指示に関する情報とともに受信されたユーザIDによって識別される視聴ユーザの端末装置2(視聴端末装置)を特定する。次に、サーバ送信部332は、特定された端末装置2(視聴端末装置)に、視聴開始指示に関する情報とともに受信された配信画像に関する情報によって識別される配信画像を表示するための情報をサーバ通信I/F31を介して配信する。なお、配信画像を表示するための情報は、配信ユーザのキャラクタ動画データ、又は、配信ユーザのキャラクタ動画データ及び音声データである。 The server receiving unit 331 of the server device 3 receives information on the viewing start instruction, information on the distributed image, and the user ID of the viewing user transmitted from the terminal device 2 (viewing terminal device) via the server communication I/F 31. Next, the server transmitting unit 332 of the server device 3 specifies the terminal device 2 (viewing terminal device) of the viewing user identified by the user ID received together with the information on the viewing start instruction. Next, the server transmitting unit 332 distributes information for displaying the distributed image identified by the information on the distributed image received together with the information on the viewing start instruction to the specified terminal device 2 (viewing terminal device) via the server communication I/F 31. Note that the information for displaying the distributed image is character video data of the distribution user, or character video data and audio data of the distribution user.

端末装置2(視聴端末装置)の受信部273によってキャラクタ動画データが受信された場合、端末装置2(視聴端末装置)の表示処理部274は、受信されたキャラクタ動画データに基づいて配信画面610を表示する。端末装置2(視聴端末装置)の受信部273によってキャラクタ動画データ及び音声データが受信された場合、端末装置2(視聴端末装置)の表示処理部274は、受信されたキャラクタ動画データに基づいて配信画面610を表示するとともに、端末装置2(視聴端末装置)の音声出力部275は、音声データに基づいて生成される配信ユーザの音声をスピーカ(図示せず)から音声出力する。なお、サーバ装置3のサーバ受信部331は、視聴開始指示に関する情報を送信した端末装置2(視聴端末装置)の視聴ユーザの視聴ユーザIDを、視聴中の視聴ユーザの視聴ユーザIDとして登録(サーバ記憶装置32に記憶)する。 When the character video data is received by the receiving unit 273 of the terminal device 2 (viewing terminal device), the display processing unit 274 of the terminal device 2 (viewing terminal device) displays the distribution screen 610 based on the received character video data. When the character video data and audio data are received by the receiving unit 273 of the terminal device 2 (viewing terminal device), the display processing unit 274 of the terminal device 2 (viewing terminal device) displays the distribution screen 610 based on the received character video data, and the audio output unit 275 of the terminal device 2 (viewing terminal device) outputs the audio of the distribution user generated based on the audio data from a speaker (not shown). The server receiving unit 331 of the server device 3 registers (stores in the server storage device 32) the viewing user ID of the viewing user of the terminal device 2 (viewing terminal device) that transmitted the information regarding the viewing start instruction as the viewing user ID of the viewing user currently viewing.

以下、配信画面600に含まれる各表示要素について説明する。 The following describes each display element included in the distribution screen 600.

配信画面600に含まれるキャラクタオブジェクト601は、表示処理部274によって生成された配信ユーザのキャラクタオブジェクトのアニメーション(動画像)である。表示処理部274は、生成された配信ユーザのモーションデータと、ユーザテーブルT1に記憶された配信ユーザのユーザIDに関連付けられたキャラクタオブジェクトとに基づいて、配信ユーザのキャラクタオブジェクトのアニメーションを生成する。モーションデータにフェイスモーションデータが含まれる場合、表示処理部274は、配信ユーザの表情の動きに同期するように、キャラクタオブジェクト601の表情を変化させる。モーションデータにボディモーションデータが含まれる場合、表示処理部274は、配信ユーザの体の動きに同期するように、キャラクタオブジェクト601の対応する部位を動作させる。表示処理部274は、生成されたキャラクタオブジェクト601を含む配信画像602を、表示装置23に表示する。 The character object 601 included in the distribution screen 600 is an animation (moving image) of the distribution user's character object generated by the display processing unit 274. The display processing unit 274 generates animation of the distribution user's character object based on the generated motion data of the distribution user and the character object associated with the distribution user's user ID stored in the user table T1. If the motion data includes face motion data, the display processing unit 274 changes the facial expression of the character object 601 so as to synchronize with the facial movement of the distribution user. If the motion data includes body motion data, the display processing unit 274 moves the corresponding part of the character object 601 so as to synchronize with the body movement of the distribution user. The display processing unit 274 displays a distribution image 602 including the generated character object 601 on the display device 23.

配信画面600に含まれる応答情報表示領域603は、配信画面610を表示している各端末装置2(視聴端末装置)から送信された応答情報(コメント情報、評価情報、及び/又は追加オブジェクトに関する情報)が含まれる。 The response information display area 603 included in the distribution screen 600 includes response information (comment information, rating information, and/or information regarding additional objects) sent from each terminal device 2 (viewing terminal device) displaying the distribution screen 610.

図7(a)に示される応答情報表示領域603の例では、「ユーザR」という名称の視聴ユーザの端末装置2(視聴端末装置)から「かっこいい」というコメントを示すコメント情報が送信されたことが示されている。次に、「ユーザF」という名称の視聴ユーザの端末装置2(視聴端末装置)から評価情報が送信されたことが示されている。そして、「ユーザA」という名称の視聴ユーザの端末装置2(視聴端末装置)から評価情報が直近で送信されたことが示されている。 The example of the response information display area 603 shown in FIG. 7(a) shows that comment information indicating the comment "cool" has been sent from the terminal device 2 (viewing terminal device) of a viewing user named "User R". Next, it shows that evaluation information has been sent from the terminal device 2 (viewing terminal device) of a viewing user named "User F". And it shows that evaluation information has most recently been sent from the terminal device 2 (viewing terminal device) of a viewing user named "User A".

配信画面600に含まれる配信終了ボタン604は、配信画面600の表示を終了して、配信画像612の配信を終了するためのボタンオブジェクト等のオブジェクト画像である。配信ユーザによる入力装置24の操作によって配信終了ボタン604が選択されると、配信ユーザの端末装置2(配信端末装置)の表示処理部274は、配信画面600の表示を終了する。そして、端末装置2(配信端末装置)の送信部272は、配信終了指示に関する情報を、端末記憶装置22に記憶された配信ユーザIDとともに、端末通信I/F21を介してサーバ装置3に送信する。サーバ装置3のサーバ受信部331は、配信ユーザの端末装置2(配信端末装置)から送信された配信終了指示に関する情報を受信すると、配信終了指示に関する情報とともに受信された配信ユーザIDをサーバ記憶装置32から削除する。さらに、サーバ受信部331は、削除された配信ユーザIDに関連付けられた視聴ユーザIDをサーバ記憶装置32から削除する。これにより、配信終了ボタン604を選択した配信ユーザの配信画像の配信が終了する。なお、配信を終了した配信ユーザの配信ユーザIDは、サーバ記憶装置32から削除されなくてもよい。この場合、配信を終了した配信ユーザの配信ユーザIDは、配信終了ユーザIDとしてサーバ記憶装置32に記憶されてもよい。また、配信を終了した配信ユーザの配信ユーザIDに関連付けられた視聴ユーザIDは、サーバ記憶装置32から削除されなくてもよい。この場合、配信を終了した配信ユーザの配信ユーザIDに関連付けられた視聴ユーザIDは、視聴終了ユーザIDとしてサーバ記憶装置32に記憶されてもよい。また、サーバ送信部332は、配信を終了した配信ユーザの配信ユーザIDに関連付けられた視聴ユーザIDにより識別される視聴ユーザの端末装置2(視聴端末装置)に、配信終了指示に関する情報を送信してもよい。この場合、配信ユーザの配信画像を表示している視聴ユーザの端末装置2(視聴端末装置)においても、配信終了指示に関する情報の受信に応じて、配信画面610の表示が終了する。 The distribution end button 604 included in the distribution screen 600 is an object image such as a button object for ending the display of the distribution screen 600 and ending the distribution of the distribution image 612. When the distribution end button 604 is selected by the distribution user operating the input device 24, the display processing unit 274 of the distribution user's terminal device 2 (distribution terminal device) ends the display of the distribution screen 600. Then, the transmission unit 272 of the terminal device 2 (distribution terminal device) transmits information regarding the distribution end instruction to the server device 3 via the terminal communication I/F 21 together with the distribution user ID stored in the terminal storage device 22. When the server receiving unit 331 of the server device 3 receives information regarding the distribution end instruction transmitted from the distribution user's terminal device 2 (distribution terminal device), it deletes the distribution user ID received together with the information regarding the distribution end instruction from the server storage device 32. Furthermore, the server receiving unit 331 deletes the viewing user ID associated with the deleted distribution user ID from the server storage device 32. This ends the distribution of the distribution image of the distribution user who selected the distribution end button 604. The broadcast user ID of the broadcast user who has ended the broadcast may not be deleted from the server storage device 32. In this case, the broadcast user ID of the broadcast user who has ended the broadcast may be stored in the server storage device 32 as a broadcast end user ID. Furthermore, the viewing user ID associated with the broadcast user ID of the broadcast user who has ended the broadcast may not be deleted from the server storage device 32. In this case, the viewing user ID associated with the broadcast user ID of the broadcast user who has ended the broadcast may be stored in the server storage device 32 as a viewing end user ID. Furthermore, the server transmission unit 332 may transmit information regarding a broadcast end instruction to the terminal device 2 (viewing terminal device) of the viewing user identified by the viewing user ID associated with the broadcast user ID of the broadcast user who has ended the broadcast. In this case, the display of the broadcast screen 610 will also end on the terminal device 2 (viewing terminal device) of the viewing user that is displaying the broadcast image of the broadcast user in response to receiving information regarding the broadcast end instruction.

以下、配信画面610に含まれる各表示要素について説明する。 The following describes each display element included in the distribution screen 610.

配信画面610に含まれるキャラクタオブジェクト611は、表示処理部274によって生成された配信ユーザのキャラクタオブジェクトのアニメーション(動画像)である。表示処理部274は、受信部273によって受信された配信ユーザのキャラクタ動画データ(モーションデータ)と、ユーザテーブルT1に記憶された配信ユーザのユーザIDに関連付けられたキャラクタオブジェクトとに基づいて、配信ユーザのキャラクタオブジェクトのアニメーションを生成する。以下、キャラクタオブジェクト611を含む配信画像612の表示処理の一例について説明する。 The character object 611 included in the distribution screen 610 is an animation (moving image) of the distribution user's character object generated by the display processing unit 274. The display processing unit 274 generates an animation of the distribution user's character object based on the distribution user's character moving image data (motion data) received by the receiving unit 273 and the character object associated with the distribution user's user ID stored in the user table T1. An example of the display process of the distribution image 612 including the character object 611 is described below.

サーバ装置3は、配信ユーザの配信画像の視聴開始指示に関する情報、配信画像に関する情報(配信画像の配信ユーザID)と、及び視聴ユーザのユーザIDを、視聴ユーザの端末装置2(視聴端末装置)から受信した場合、受信した視聴ユーザの視聴ユーザIDを、受信した配信画像の配信ユーザIDと関連付けて記憶する。 When the server device 3 receives information regarding an instruction to start viewing the distributed image of the distribution user, information regarding the distributed image (distribution user ID of the distributed image), and the user ID of the viewing user from the terminal device 2 (viewing terminal device) of the viewing user, it stores the viewing user ID of the received viewing user in association with the distribution user ID of the received distributed image.

視聴ユーザの端末装置2(視聴端末装置)の受信部273によって受信された配信ユーザのキャラクタ動画データ(モーションデータ)に、配信ユーザのフェイスモーションデータが含まれる場合、配信ユーザの表情の動きに同期して表情が変化するキャラクタオブジェクト611を含む配信画像612が表示される。例えば、配信ユーザが音声を発した場合では、唇が動作しているキャラクタオブジェクト611を含む配信画像612が表示される。また、受信部273によって受信された配信ユーザのモーションデータに配信ユーザのボディモーションデータが含まれる場合、配信ユーザの体の動きに同期して、対応する部位が動作するキャラクタオブジェクト611を含む配信画像612が表示される。配信ユーザのキャラクタ動画データ及び音声データが受信された場合、受信されたキャラクタ動画データに基づく配信画像612が表示処理部274によって表示され、受信された配信ユーザの音声データに基づいて生成される配信ユーザの音声が音声出力部275によって音声出力される。これにより、ユーザAは、音声を発しているような動きをしている配信ユーザのキャラクタオブジェクト611を見ながら配信ユーザの音声を聞くことができる。以上により、配信画像612の表示処理は終了する。配信画像612の表示処理は、配信ユーザの出力情報を所定の時間間隔ごと(例えば2秒ごと)に受信するたびに実行される。 When the broadcast user's character video data (motion data) received by the receiving unit 273 of the viewing user's terminal device 2 (viewing terminal device) includes the broadcast user's face motion data, a broadcast image 612 including a character object 611 whose facial expression changes in sync with the broadcast user's facial expression is displayed. For example, when the broadcast user emits a sound, a broadcast image 612 including a character object 611 whose lips are moving is displayed. Also, when the broadcast user's motion data received by the receiving unit 273 includes the broadcast user's body motion data, a broadcast image 612 including a character object 611 whose corresponding body part moves in sync with the broadcast user's body movement is displayed. When the broadcast user's character video data and voice data are received, a broadcast image 612 based on the received character video data is displayed by the display processing unit 274, and the voice of the broadcast user generated based on the received voice data of the broadcast user is output by the voice output unit 275. This allows user A to hear the voice of the broadcast user while watching the broadcast user's character object 611 that is moving as if it is emitting a sound. With the above, the display process of the broadcast image 612 ends. The display process for the distribution image 612 is executed every time the distribution user's output information is received at a predetermined time interval (e.g., every two seconds).

配信画面610に含まれる評価ボタン613は、配信画面610に含まれるキャラクタオブジェクト611に関する評価情報の送信、又は、キャラクタオブジェクト611に係る配信ユーザに関する評価情報の送信、を指示するためのオブジェクト画像である。視聴ユーザによる入力装置24の操作に応じて評価ボタン613が選択された場合、端末装置2(視聴端末装置)の送信部272は、「配信画面610に含まれるキャラクタオブジェクト611に対する肯定的な評価」がなされたことを示す評価情報又は「配信画面610に含まれるキャラクタオブジェクト611に係る配信ユーザに対する肯定的な評価」がなされたことを示す評価情報とともに、当該評価情報の表示指示に関する情報を、端末通信I/F21を介してサーバ装置3に送信する。サーバ装置3のサーバ受信部331は、受信した評価情報をサーバ記憶装置32に記憶してもよく、また、サーバ装置3のサーバ送信部332は、受信された評価情報を配信ユーザの端末装置2(配信端末装置)に送信してもよい。 The evaluation button 613 included in the distribution screen 610 is an object image for instructing the transmission of evaluation information regarding the character object 611 included in the distribution screen 610, or the transmission of evaluation information regarding the distribution user related to the character object 611. When the evaluation button 613 is selected in response to the operation of the input device 24 by the viewing user, the transmission unit 272 of the terminal device 2 (viewing terminal device) transmits evaluation information indicating that a "positive evaluation of the character object 611 included in the distribution screen 610" has been made, or evaluation information indicating that a "positive evaluation of the distribution user related to the character object 611 included in the distribution screen 610" has been made, together with information regarding an instruction to display the evaluation information, to the server device 3 via the terminal communication I/F 21. The server receiving unit 331 of the server device 3 may store the received evaluation information in the server storage device 32, and the server transmitting unit 332 of the server device 3 may transmit the received evaluation information to the terminal device 2 (distribution terminal device) of the distribution user.

なお、評価ボタン613は、「配信画面600に含まれるキャラクタオブジェクト611に対する否定的な評価」がなされたことを示す評価情報又は「配信画面600に含まれるキャラクタオブジェクト611に係る配信ユーザに対する否定的な評価」がなされたことを示す評価情報の送信を指示するためのオブジェクト画像でもよい。また、配信画面610に、複数種類の評価ボタン613(例えば、肯定的な評価情報を送信するための評価ボタン及び否定的な評価情報を送信するための評価ボタンの2種類の評価ボタン)が含まれてもよい。 The evaluation button 613 may be an object image for instructing the transmission of evaluation information indicating that a "negative evaluation of the character object 611 included in the distribution screen 600" has been made, or evaluation information indicating that a "negative evaluation of the distribution user related to the character object 611 included in the distribution screen 600" has been made. Furthermore, the distribution screen 610 may include multiple types of evaluation buttons 613 (for example, two types of evaluation buttons, an evaluation button for sending positive evaluation information and an evaluation button for sending negative evaluation information).

配信画面610が複数の端末装置2(視聴端末装置)において表示されている場合、各端末装置2(視聴端末装置)から送信された評価情報を集計した集計情報が配信画面600及び/又は配信画面610に含まれてもよい。例えば、サーバ装置3は、複数の端末装置2(視聴端末装置)のそれぞれから送信された評価情報の数を計数し、当該評価情報の数を配信画面600及び/又は配信画面610に含めるための表示情報を生成してもよい。集計情報は、評価情報の数に限らず、評価情報が送信された時間帯に関する情報等でもよい。なお、集計期間は、配信イベントの開始から現在時刻までの期間、配信画面600の表示開始から現在時刻までの期間、配信画面610の配信開始から現在時刻までの期間、又は、所定の期間(例えば、21時~24時までの期間)等である。また、集計期間は、複数設定されてもよい。サーバ装置3によって評価情報が配信ユーザの端末装置2(配信端末装置)に送信され得る場合、評価情報の集計処理は端末装置2(配信端末装置)によって実行されてもよい。この場合、配信画面600に集計情報を含める処理は、端末装置2(配信端末装置)によって実行されてもよく、配信画面610に集計情報を含める処理は、当該配信画面610を表示している端末装置2(視聴端末装置)によって実行されてもよい。 When the distribution screen 610 is displayed on a plurality of terminal devices 2 (viewing terminal devices), the distribution screen 600 and/or the distribution screen 610 may include aggregated information that aggregates the evaluation information transmitted from each terminal device 2 (viewing terminal device). For example, the server device 3 may count the number of evaluation information transmitted from each of the plurality of terminal devices 2 (viewing terminal devices) and generate display information for including the number of evaluation information in the distribution screen 600 and/or the distribution screen 610. The aggregated information is not limited to the number of evaluation information, and may be information on the time period in which the evaluation information was transmitted. The aggregation period may be a period from the start of the distribution event to the current time, a period from the start of the display of the distribution screen 600 to the current time, a period from the start of the distribution of the distribution screen 610 to the current time, or a predetermined period (for example, a period from 9 p.m. to midnight). In addition, a plurality of aggregation periods may be set. When the server device 3 can transmit the evaluation information to the terminal device 2 (distribution terminal device) of the distribution user, the aggregation process of the evaluation information may be performed by the terminal device 2 (distribution terminal device). In this case, the process of including the tally information in the distribution screen 600 may be performed by the terminal device 2 (distribution terminal device), and the process of including the tally information in the distribution screen 610 may be performed by the terminal device 2 (viewing terminal device) that is displaying the distribution screen 610.

配信画面610に含まれる追加ボタン614は、配信画面600及び配信画面610に表示させる追加オブジェクトを選択するための選択画面700の表示を指示するためのオブジェクト画像である。視聴ユーザによる入力装置24の操作に応じて追加ボタン614が選択されると、当該視聴ユーザの端末装置2(視聴端末装置)において選択画面700が表示される。選択画面700の詳細は後述する。 The add button 614 included in the distribution screen 610 is an object image for instructing the display of a selection screen 700 for selecting the distribution screen 600 and an additional object to be displayed on the distribution screen 610. When the add button 614 is selected in response to an operation of the input device 24 by the viewing user, the selection screen 700 is displayed on the terminal device 2 (viewing terminal device) of the viewing user. Details of the selection screen 700 will be described later.

配信画面610に含まれるコメントボタン615は、配信画面600及び配信画面610に表示させるコメント(文字列)を入力するためのコメント入力ウィンドウ(図示しない)の表示を指示するためのオブジェクト画像である。視聴ユーザによる入力装置24の操作に応じてコメントボタン615が選択されると、コメント入力ウィンドウ(図示しない)が配信画面610上に重畳表示される。 The comment button 615 included in the distribution screen 610 is an object image for instructing the display of a comment input window (not shown) for inputting a comment (character string) to be displayed on the distribution screen 600 and the distribution screen 610. When the comment button 615 is selected in response to the operation of the input device 24 by the viewing user, the comment input window (not shown) is superimposed on the distribution screen 610.

コメント入力ウィンドウは、コメントボタン615を選択した視聴ユーザの端末装置2の表示装置23のみに表示され、コメント入力ウィンドウに入力中の文字列は、他の端末装置2の表示装置23に表示されない。例えば、視聴ユーザの端末装置2の表示処理部274は、当該視聴ユーザによる入力装置24の操作に応じてコメント入力ウィンドウに入力されたコメント(文字列)を示すコメント情報を作成する。コメント情報は応答情報の一種である。 The comment input window is displayed only on the display device 23 of the terminal device 2 of the viewing user who selected the comment button 615, and the character string being entered into the comment input window is not displayed on the display device 23 of other terminal devices 2. For example, the display processing unit 274 of the terminal device 2 of the viewing user creates comment information indicating the comment (character string) entered into the comment input window in response to the viewing user's operation of the input device 24. The comment information is a type of response information.

配信画面610に含まれる応答情報表示領域616には、視聴ユーザによる操作に応じて作成された応答情報(コメント情報、評価情報、及び/又は(後述する)追加オブジェクトに関する情報)、及び、同一の配信ユーザの配信画像612を視聴している他の視聴ユーザの端末装置2から送信された応答情報が含まれる。 The response information display area 616 included in the distribution screen 610 includes response information (comment information, rating information, and/or information regarding additional objects (described below)) created in response to operations by the viewing user, as well as response information transmitted from the terminal devices 2 of other viewing users who are viewing the distribution image 612 of the same distribution user.

図7(b)に示される応答情報表示領域616の例では、「ユーザR」という名称の視聴ユーザの端末装置2から「かっこいい」というコメント(文字列)を示すコメント情報が送信されたことが示されている。また、「ユーザF」という名称の視聴ユーザの端末装置2から評価情報が送信されたことが示されている。さらに、この端末装置2を操作するユーザAの端末装置2によって作成された評価情報が送信されたことが示されている。 The example of the response information display area 616 shown in FIG. 7(b) shows that comment information indicating the comment (character string) "Cool" was sent from the terminal device 2 of a viewing user named "User R". It also shows that evaluation information was sent from the terminal device 2 of a viewing user named "User F". It also shows that evaluation information created by the terminal device 2 of user A who operates this terminal device 2 was sent.

配信画面610を表示している端末装置2の送信部272は、当該端末装置2の視聴ユーザによって応答情報が作成されて送信指示が入力されると、作成された応答情報とともに応答情報の表示指示に関する情報を、端末通信I/F21を介してサーバ装置3に送信する。なお、応答情報の表示指示に関する情報とともに、端末記憶装置22に記憶された当該視聴ユーザの視聴ユーザIDが送信される。 When response information is created by the viewing user of the terminal device 2 and a transmission instruction is input, the transmitting unit 272 of the terminal device 2 displaying the distribution screen 610 transmits the created response information together with information regarding an instruction to display the response information to the server device 3 via the terminal communication I/F 21. Note that the viewing user ID of the viewing user stored in the terminal storage device 22 is transmitted together with the information regarding the instruction to display the response information.

サーバ装置3のサーバ受信部331は、配信画面610を表示している端末装置2から送信された応答情報の表示指示に関する情報を、応答情報と視聴ユーザIDとともに受信する。サーバ装置3のサーバ送信部332は、受信した視聴ユーザIDに関連付けて記憶された配信ユーザIDを、サーバ記憶装置32から抽出する。そして、サーバ送信部332は、抽出した配信ユーザIDによって示される配信ユーザの端末装置2及び抽出した視聴ユーザIDによって示される視聴ユーザの端末装置2に、受信した応答情報及び視聴ユーザIDを送信する。配信画面610を表示している各端末装置2の受信部273は、サーバ装置3から送信された応答情報及び視聴ユーザIDを端末通信I/F21を介して受信する。配信画面610を表示している各端末装置2の表示処理部274は、受信された応答情報及び受信された視聴ユーザIDに関連付けられた名称に基づいて、応答情報と当該応答情報を入力した視聴ユーザの名称とを時系列に並べて応答情報表示領域616内に含めた配信画面610を表示する。なお、受信されたユーザIDに関連付けられた名称は、表示処理部274によって、ユーザテーブルT1が参照されることにより抽出された情報である。このように、配信画面610を表示している各端末装置2の表示処理部274は、応答情報が受信されるたびに、受信された応答情報と当該応答情報を入力した視聴ユーザの名称とを時系列に並べて応答情報表示領域616に表示する。 The server receiving unit 331 of the server device 3 receives information regarding a display instruction for the response information transmitted from the terminal device 2 displaying the distribution screen 610, together with the response information and the viewing user ID. The server transmitting unit 332 of the server device 3 extracts the distribution user ID stored in association with the received viewing user ID from the server storage device 32. The server transmitting unit 332 then transmits the received response information and the viewing user ID to the terminal device 2 of the distribution user indicated by the extracted distribution user ID and the terminal device 2 of the viewing user indicated by the extracted viewing user ID. The receiving unit 273 of each terminal device 2 displaying the distribution screen 610 receives the response information and the viewing user ID transmitted from the server device 3 via the terminal communication I/F 21. The display processing unit 274 of each terminal device 2 displaying the distribution screen 610 displays the distribution screen 610 in which the response information and the name of the viewing user who input the response information are arranged in chronological order in the response information display area 616 based on the received response information and the name associated with the received viewing user ID. The name associated with the received user ID is information extracted by the display processing unit 274 by referring to the user table T1. In this way, the display processing unit 274 of each terminal device 2 displaying the distribution screen 610 displays the received response information and the name of the viewing user who input the response information in chronological order in the response information display area 616 each time response information is received.

応答情報表示領域603及び/又は応答情報表示領域616に表示可能な応答情報の数に上限数が設定されてもよい。図7(a)に示される応答情報表示領域603及び図7(b)に示される応答情報表示領域616の例では、表示可能な応答情報の上限数は「3」である。各端末装置2に表示される応答情報の数が、設定された上限数を超える場合、各端末装置2の表示処理部274は、新たに受信した3つの応答情報を順に応答情報表示領域603に含めた配信画面600又は応答情報表示領域616に含めた配信画面610を表示する。 An upper limit may be set for the number of pieces of response information that can be displayed in the response information display area 603 and/or the response information display area 616. In the example of the response information display area 603 shown in FIG. 7(a) and the response information display area 616 shown in FIG. 7(b), the upper limit for the number of pieces of response information that can be displayed is "3". If the number of pieces of response information displayed on each terminal device 2 exceeds the set upper limit, the display processing unit 274 of each terminal device 2 displays the delivery screen 600 including the three newly received pieces of response information in the response information display area 603, or the delivery screen 610 including the three newly received pieces of response information in the response information display area 616, in order.

なお、応答情報表示領域616内の応答情報がスクロール可能に表示されてもよい。この場合、この場合、ユーザによるスワイプ操作(例えば、指が画面に接しながら当該指が画面下から上に移動する操作)に応じて、応答情報表示領域616に現在含まれていない応答情報が、応答情報表示領域616内にスクロール表示される。配信画面600に含まれる応答情報表示領域603内の応答情報も、応答情報表示領域616と同様に、スクロール可能に表示されてもよい。 The response information in the response information display area 616 may be displayed in a scrollable manner. In this case, in response to a swipe operation by the user (for example, an operation in which a finger touches the screen and moves from the bottom to the top of the screen), response information that is not currently included in the response information display area 616 is scrolled and displayed in the response information display area 616. The response information in the response information display area 603 included in the delivery screen 600 may also be displayed in a scrollable manner, similar to the response information display area 616.

視聴終了ボタン617は、配信画面610の表示を終了して、配信画像612の視聴を終了するためのボタンオブジェクト等のオブジェクト画像である。視聴ユーザによる入力装置24の操作によって視聴終了ボタン617が選択されると、当該視聴ユーザの端末装置2の表示処理部274は、配信画面610の表示を終了する。そして、端末装置2の送信部272は、視聴終了指示に関する情報を、端末記憶装置22に記憶された視聴ユーザIDと送信先情報ともに、端末通信I/F21を介してサーバ装置3に送信する。サーバ装置3のサーバ受信部331は、ユーザの端末装置2から送信された視聴終了指示に関する情報と視聴ユーザIDを受信すると、受信した視聴ユーザIDと同一且つ終了させた配信画面610に係る配信ユーザの配信ユーザIDに関連付けられた視聴ユーザIDを、視聴終了ユーザIDとしてサーバ記憶装置32に記憶する。なお、視聴終了ユーザIDは、終了させた配信画面610に係る配信ユーザの配信ユーザIDに関連付けて記憶される。これにより、視聴終了ボタン617を選択した視聴ユーザの配信画像の視聴が終了する。 The viewing end button 617 is an object image such as a button object for ending the display of the distribution screen 610 and ending the viewing of the distribution image 612. When the viewing end button 617 is selected by the viewing user operating the input device 24, the display processing unit 274 of the terminal device 2 of the viewing user ends the display of the distribution screen 610. Then, the transmission unit 272 of the terminal device 2 transmits information regarding the viewing end instruction to the server device 3 via the terminal communication I/F 21 together with the viewing user ID and the transmission destination information stored in the terminal storage device 22. When the server receiving unit 331 of the server device 3 receives the information regarding the viewing end instruction and the viewing user ID transmitted from the user's terminal device 2, it stores the viewing user ID, which is the same as the received viewing user ID and is associated with the distribution user ID of the distribution user related to the ended distribution screen 610, as the viewing end user ID in the server storage device 32. Note that the viewing end user ID is stored in association with the distribution user ID of the distribution user related to the ended distribution screen 610. This ends the viewing of the distribution image of the viewing user who selected the viewing end button 617.

図8(a)は、視聴ユーザの端末装置2(視聴端末装置)の表示装置23に表示される選択画面700の一例を示す図である。図8(a)に示されるように、選択画面700は、配信画面610に重畳するように表示される。選択画面700は、配信画面610の表示を一時的に中断させている間に後に表示され、選択画面700の表示の終了に応じて配信画面610が再表示されてもよい。 Fig. 8(a) is a diagram showing an example of a selection screen 700 displayed on the display device 23 of the viewing user's terminal device 2 (viewing terminal device). As shown in Fig. 8(a), the selection screen 700 is displayed so as to be superimposed on the distribution screen 610. The selection screen 700 may be displayed later while the display of the distribution screen 610 is temporarily suspended, and the distribution screen 610 may be redisplayed in response to the end of the display of the selection screen 700.

図8(a)に示される例では、8種類の追加候補オブジェクトを示す画像が選択画面700の表示領域内に含まれる。追加候補オブジェクトを示す画像の近傍に、当該追加候補オブジェクトを示す名称が配置されてもよい。選択画面700の表示領域内に含まれる追加候補オブジェクトの数は、8つに限らず、7つ以下でも9つ以上でもよい。端末装置2の表示処理部274は、複数の追加候補オブジェクトを示す画像の一部を選択画面700の表示領域内に含めることができない場合、追加候補オブジェクトを示す画像をスクロール可能に表示してもよい。この場合、視聴ユーザによるスワイプ操作(例えば、指が画面に接しながら当該指が画面右から左に移動する操作)に応じて、選択画面700の表示領域内に現在含まれていない追加候補オブジェクトを示す画像がスクロールされて、選択画面700の表示領域内に表示される。 In the example shown in FIG. 8(a), images showing eight types of candidate objects for addition are included in the display area of the selection screen 700. A name showing the candidate object for addition may be arranged near the image showing the candidate object for addition. The number of candidate objects for addition included in the display area of the selection screen 700 is not limited to eight, and may be seven or less or nine or more. When a part of the image showing a plurality of candidate objects for addition cannot be included in the display area of the selection screen 700, the display processing unit 274 of the terminal device 2 may display the image showing the candidate object for addition in a scrollable manner. In this case, in response to a swipe operation by the viewing user (for example, an operation in which a finger is moved from right to left on the screen while touching the screen), an image showing a candidate object for addition that is not currently included in the display area of the selection screen 700 is scrolled and displayed in the display area of the selection screen 700.

追加候補オブジェクトのそれぞれは追加オブジェクトを示す。追加候補オブジェクトを示す画像は、例えば、追加オブジェクトの一種であるギフトオブジェクトを示すアイコン画像、サムネイル画像等である。なお、選択画面700において、各追加候補オブジェクトの画像が、追加オブジェクトの種類(無料ギフト、有料ギフト、アクセサリ、応援グッズ、アピール、バラエティ、グループの所属ユーザの協力が必要な協力ギフト等)ごとに分類されて表示されてもよい。なお、有料ギフトに属する追加オブジェクトとは、ユーザが仮想的な貨幣価値の「コイン」を消費することにより購入可能な追加オブジェクトである。無料ギフトに属する追加オブジェクトとは、貨幣価値を消費することなく、代わりに配信を視聴することなどで取得できるポイントを消費すること等で入手可能な追加オブジェクトである。なお、追加オブジェクトは、視聴ユーザが、端末装置2において実行される所定のミッションをプレイして、当該所定のミッションをクリアすることで配信ユーザに送信することが可能となるオブジェクトでもよい。追加オブジェクトは、視聴ユーザが、端末装置2において実行される公知の抽選ゲームをプレイして、当該抽選ゲームで当選することで配信ユーザに送信することが可能となるオブジェクトでもよい。また、追加オブジェクトは、視聴ユーザが保有するオブジェクトとして管理(記憶)されてもよい。 Each of the additional candidate objects indicates an additional object. The image indicating the additional candidate object is, for example, an icon image, a thumbnail image, or the like indicating a gift object, which is a type of additional object. In addition, in the selection screen 700, the image of each additional candidate object may be displayed classified according to the type of additional object (free gifts, paid gifts, accessories, support goods, appeals, variety, cooperation gifts that require the cooperation of users belonging to the group, etc.). In addition, an additional object belonging to a paid gift is an additional object that can be purchased by a user by spending "coins" of virtual monetary value. In addition, an additional object belonging to a free gift is an additional object that can be obtained by spending points that can be obtained by watching a broadcast instead of spending monetary value. In addition, the additional object may be an object that can be sent to the broadcasting user by the viewing user playing a predetermined mission executed on the terminal device 2 and clearing the predetermined mission. The additional object may be an object that can be sent to the broadcasting user by the viewing user playing a known lottery game executed on the terminal device 2 and winning the lottery game. In addition, the additional object may be managed (stored) as an object owned by the viewing user.

視聴ユーザによる入力装置24の操作に応じて追加候補オブジェクトが選択されると、入力装置24は、追加指示を、選択された追加候補オブジェクトに対応するオブジェクトIDとともに端末処理装置27に入力する。以下、追加指示に応じた追加処理の一例について説明する。 When a candidate object for addition is selected in response to an operation of the input device 24 by the viewing user, the input device 24 inputs an addition instruction to the terminal processing device 27 together with the object ID corresponding to the selected candidate object for addition. An example of an addition process in response to an addition instruction is described below.

まず、表示処理部274は、入力された追加指示及びオブジェクトIDを取得すると、オブジェクトテーブルT2を参照して、取得したオブジェクトIDに関連付けられた追加オブジェクトの静止画像又は動画像(画像情報)を端末記憶装置22から抽出する。次に、表示処理部274は、配信ユーザのキャラクタオブジェクト611を含む配信画像612に、抽出した静止画像又は動画像を含めた新たな配信画像612を生成する。 First, when the display processing unit 274 acquires the input addition instruction and object ID, it refers to the object table T2 and extracts a still image or video image (image information) of the added object associated with the acquired object ID from the terminal storage device 22. Next, the display processing unit 274 generates a new distribution image 612 that includes the extracted still image or video image in the distribution image 612 that includes the distribution user's character object 611.

次に、送信部272は、入力された追加指示及びオブジェクトIDを取得すると、追加指示を示す情報を、取得したオブジェクトIDと端末記憶装置22に記憶された視聴ユーザの視聴ユーザIDと配信画像に関する情報(配信画像の配信ユーザID)とともに、端末通信I/F21を介してサーバ装置3に送信する。次に、サーバ装置3のサーバ受信部331は、サーバ通信I/F31を介して、追加指示を示す情報とオブジェクトIDと視聴ユーザIDと配信画像に関する情報(配信画像の配信ユーザID)とを受信する。なお、配信画像に関する情報(配信画像の配信ユーザID)が送信されなかった場合、サーバ装置3のサーバ送信部332は、受信した視聴ユーザIDに関連付けて記憶された配信ユーザIDを、サーバ記憶装置32から抽出する。サーバ送信部332は、配信画像に関する情報(配信画像の配信ユーザID)又は抽出した配信ユーザIDに関連付けられた視聴ユーザIDのうち、受信した視聴ユーザID以外の視聴ユーザIDを抽出する。そして、サーバ送信部332は、抽出した視聴ユーザIDによって示される視聴ユーザの端末装置2に、受信した追加指示を示す情報とオブジェクトIDと受信したユーザID(追加指示をした視聴ユーザのユーザID)を、サーバ通信I/F31を介して送信する。また、サーバ送信部332は、配信画像に関する情報(配信画像の配信ユーザID)又は抽出した配信ユーザIDによって示される配信ユーザの端末装置2に、受信した追加指示を示す情報とオブジェクトIDと受信した視聴ユーザIDを、サーバ通信I/F31を介して送信する。 Next, when the transmission unit 272 acquires the input addition instruction and object ID, it transmits information indicating the addition instruction together with the acquired object ID, the viewing user ID of the viewing user stored in the terminal storage device 22, and information regarding the distributed image (distribution user ID of the distributed image) to the server device 3 via the terminal communication I/F 21. Next, the server reception unit 331 of the server device 3 receives the information indicating the addition instruction, the object ID, the viewing user ID, and information regarding the distributed image (distribution user ID of the distributed image) via the server communication I/F 31. Note that if the information regarding the distributed image (distribution user ID of the distributed image) is not transmitted, the server transmission unit 332 of the server device 3 extracts the distribution user ID stored in association with the received viewing user ID from the server storage device 32. The server transmission unit 332 extracts viewing user IDs other than the received viewing user ID from the information regarding the distributed image (distribution user ID of the distributed image) or the viewing user ID associated with the extracted distribution user ID. Then, the server transmission unit 332 transmits information indicating the received addition instruction, the object ID, and the received user ID (user ID of the viewing user who issued the addition instruction) to the terminal device 2 of the viewing user indicated by the extracted viewing user ID via the server communication I/F 31. The server transmission unit 332 also transmits information regarding the distributed image (distributor user ID of the distributed image) or information indicating the received addition instruction, the object ID, and the received viewing user ID to the terminal device 2 of the broadcast user indicated by the extracted broadcast user ID via the server communication I/F 31.

そして、視聴ユーザ(追加指示をした視聴ユーザを除く)及び配信ユーザの端末装置2の受信部273は、端末通信I/F21を介して、追加指示を示す情報と追加指示をした視聴ユーザのユーザIDとオブジェクトIDとを受信する。次に、端末装置2の表示処理部274は、オブジェクトテーブルT2を参照して、受信したオブジェクトIDに関連付けられた追加オブジェクトの静止画像又は動画像(画像情報)を端末記憶装置22から抽出する。次に、表示処理部274は、配信ユーザのキャラクタオブジェクト601、611を含む配信画像602、612に、抽出した静止画像又は動画像を含めた新たな配信画像612を生成する。なお、新たな配信画像602、612には、追加指示をした視聴ユーザの名称及び受信したオブジェクトIDに関連付けられた追加オブジェクトの名称を含む応答情報が新たに表示されてもよい。以上により、追加処理は終了する。 Then, the receiving unit 273 of the terminal device 2 of the viewing user (excluding the viewing user who issued the add instruction) and the broadcasting user receives information indicating the add instruction, the user ID of the viewing user who issued the add instruction, and the object ID via the terminal communication I/F 21. Next, the display processing unit 274 of the terminal device 2 refers to the object table T2 and extracts a still image or video (image information) of the additional object associated with the received object ID from the terminal storage device 22. Next, the display processing unit 274 generates a new broadcasting image 612 that includes the extracted still image or video in the broadcasting images 602, 612 that include the broadcasting user's character objects 601, 611. Note that the new broadcasting images 602, 612 may newly display response information including the name of the viewing user who issued the add instruction and the name of the additional object associated with the received object ID. With this, the addition process ends.

図8(b)は、端末装置2の表示装置23に表示される配信画面710の他の一例を示す図である。配信画面710には、配信画面610と同様に、キャラクタオブジェクト611を含む配信画像612と、評価ボタン613と、追加ボタン614と、コメントボタン615と、応答情報表示領域616と、視聴終了ボタン617が含まれる。 FIG. 8(b) is a diagram showing another example of a distribution screen 710 displayed on the display device 23 of the terminal device 2. Like the distribution screen 610, the distribution screen 710 includes a distribution image 612 including a character object 611, a rating button 613, an add button 614, a comment button 615, a response information display area 616, and an end viewing button 617.

配信画面710には、配信画面610と異なり、追加オブジェクト711及び追加オブジェクト712が含まれる。追加オブジェクト711及び追加オブジェクト712は、ともに追加オブジェクトを示す静止画像又は動画像である。以下、追加オブジェクト712の追加指示をした視聴ユーザがユーザAである場合を例に、追加オブジェクト712の表示処理の一例について説明する。 Unlike distribution screen 610, distribution screen 710 includes additional object 711 and additional object 712. Additional object 711 and additional object 712 are both still images or moving images showing additional objects. Below, an example of the display process for additional object 712 will be described using the example in which the viewing user who issues the instruction to add additional object 712 is user A.

ユーザAによる入力装置24の操作に応じて、(追加オブジェクト712に対応する)追加候補オブジェクトが選択されると、ユーザAの端末装置2の入力装置24は、追加指示を、選択された追加候補オブジェクトに対応するオブジェクトIDとともに端末処理装置27に入力する。ユーザAの端末装置2の表示処理部274は、入力された追加指示及びオブジェクトIDを取得すると、オブジェクトテーブルT2を参照して、取得したオブジェクトIDに関連付けられた追加オブジェクトの静止画像又は動画像(画像情報)を端末記憶装置22から抽出する。そして、ユーザAの端末装置2の表示処理部274は、配信ユーザのキャラクタオブジェクト611を含む配信画像612に、抽出した静止画像又は動画像に基づく追加オブジェクト712を含めた新たな配信画像612を生成する。 When a candidate object for addition (corresponding to the additional object 712) is selected in response to user A's operation of the input device 24, the input device 24 of user A's terminal device 2 inputs an addition instruction to the terminal processing device 27 together with the object ID corresponding to the selected candidate object for addition. When the display processing unit 274 of user A's terminal device 2 acquires the inputted addition instruction and object ID, it refers to the object table T2 and extracts a still image or video image (image information) of the additional object associated with the acquired object ID from the terminal storage device 22. Then, the display processing unit 274 of user A's terminal device 2 generates a new distribution image 612 including the additional object 712 based on the extracted still image or video image in the distribution image 612 including the distribution user's character object 611.

ユーザAの端末装置2の送信部272は、追加オブジェクト712に係る追加指示を示す情報と取得したオブジェクトIDと端末記憶装置22に記憶されたユーザAの視聴ユーザIDとを、サーバ装置3経由で、視聴ユーザ(追加指示をした視聴ユーザを除く)及び配信ユーザの端末装置2に送信する。追加オブジェクト712に係る追加指示を示す情報とユーザAの視聴ユーザIDとオブジェクトIDとが、視聴ユーザ(ユーザAを除く)及び配信ユーザの端末装置2の受信部273によって受信されると、視聴ユーザ(ユーザAを除く)及び配信ユーザの端末装置2の表示処理部274は、オブジェクトテーブルT2を参照して、受信したオブジェクトIDに関連付けられた追加オブジェクトの静止画像又は動画像(画像情報)を端末記憶装置22から抽出する。そして、当該端末装置2の表示処理部274は、配信ユーザのキャラクタオブジェクト611を含む配信画像612に、抽出した静止画像又は動画像に基づく新たな配信画像612を生成する。以上により、追加オブジェクト712の表示処理は終了する。 The transmitting unit 272 of the terminal device 2 of user A transmits information indicating the addition instruction related to the additional object 712, the acquired object ID, and the viewing user ID of user A stored in the terminal storage device 22 to the terminal device 2 of the viewing users (excluding the viewing user who issued the addition instruction) and the broadcasting user via the server device 3. When the information indicating the addition instruction related to the additional object 712 and the viewing user ID and object ID of user A are received by the receiving unit 273 of the terminal device 2 of the viewing users (excluding user A) and the broadcasting user, the display processing unit 274 of the terminal device 2 of the viewing users (excluding user A) and the broadcasting user refers to the object table T2 and extracts a still image or a moving image (image information) of the additional object associated with the received object ID from the terminal storage device 22. Then, the display processing unit 274 of the terminal device 2 generates a new broadcasting image 612 based on the extracted still image or moving image in the broadcasting image 612 including the character object 611 of the broadcasting user. With the above, the display processing of the additional object 712 ends.

配信画面に追加される追加オブジェクトは、所定の変化条件が満たされると、配信画面の表示中に、形状、サイズ、配置、色、輝度、及び/又はデザインが変化してもよい。なお、所定の変化条件は、追加オブジェクトの追加指示を示す情報に関する条件であってもよい。例えば、所定の変化条件は、同じ配信画面を視聴している全視聴ユーザのうちのいずれかの視聴ユーザによる追加指示のタイミングに係る条件が満たされたこと、及び/又は、同じ配信画面を視聴している全視聴ユーザのうちの少なくとも2の視聴ユーザが互いに異なる複数の特定の種類の追加オブジェクトの追加指示をしたことでもよい。追加指示のタイミングに係る条件が満たされることとは、例えば、複数の視聴ユーザによる追加指示のタイミングの差分時間が所定期間内であること等である。視聴ユーザによる追加指示に応じて、サーバ装置3によって当該視聴ユーザに所定のポイントが付与される。所定の変化条件が満たされた場合、所定の変化条件を満たす追加指示を行った視聴ユーザに、所定のポイントよりも多いポイントが付与されてもよい。所定の変化条件は、所定の関係を有する複数の視聴ユーザのいずれかによる追加指示のタイミングに係る条件が満たされたこと、及び/又は、所定の関係を有する複数の視聴ユーザが互いに異なる複数の特定の種類の追加オブジェクトの追加指示をしたことでもよい。この場合、所定の関係を有さない視聴ユーザによる追加指示のタイミングに係る条件が満たされたとしても、所定の変化条件は満たされない。 When a predetermined change condition is satisfied, the shape, size, arrangement, color, brightness, and/or design of the additional object added to the distribution screen may change during the display of the distribution screen. The predetermined change condition may be a condition related to information indicating an instruction to add an additional object. For example, the predetermined change condition may be that a condition related to the timing of an instruction to add by any one of all viewing users viewing the same distribution screen is satisfied, and/or that at least two viewing users among all viewing users viewing the same distribution screen have issued an instruction to add multiple specific types of additional objects that are different from each other. For example, the condition related to the timing of the instruction to add is satisfied when the difference in the timing of the instruction to add by multiple viewing users is within a predetermined period. In response to the instruction to add by the viewing user, the server device 3 grants the viewing user a predetermined point. When the predetermined change condition is satisfied, the viewing user who issued the instruction to add that satisfies the predetermined change condition may be granted more points than the predetermined point. The predetermined change condition may be that a condition related to the timing of an instruction to add by any one of multiple viewing users having a predetermined relationship is satisfied, and/or that multiple viewing users having a predetermined relationship have issued an instruction to add multiple specific types of additional objects that are different from each other. In this case, even if the conditions related to the timing of an additional instruction from a viewing user who does not have a specified relationship are met, the specified change conditions are not met.

複数の視聴ユーザにおける所定の関係とは、例えば、複数の視聴ユーザのうちの一の視聴ユーザが複数の視聴ユーザのうちの他の視聴ユーザの相互フォロワーであることである。なお、一のユーザが他のユーザをフォローし且つ他のユーザも一のユーザをフォローしている(一のユーザと他のユーザが相互フォローしている)場合、一のユーザと他のユーザは相互フォロワーとなる。また、複数の視聴ユーザにおける所定の関係とは、複数の視聴ユーザのうちの一の視聴ユーザが、複数の視聴ユーザのうちの他の視聴ユーザと相互フォローしている所定の視聴ユーザと相互フォローの関係にあることでもよい。 A specified relationship among multiple viewing users means, for example, that one viewing user among the multiple viewing users is a mutual follower of another viewing user among the multiple viewing users. Note that when one user follows another user and the other user also follows the one user (the one user and the other user are mutually following each other), the one user and the other user are mutual followers. Also, a specified relationship among multiple viewing users may mean that one viewing user among the multiple viewing users is in a mutual follow relationship with a specified viewing user who is mutually following another viewing user among the multiple viewing users.

また、複数の視聴ユーザにおける所定の関係とは、複数の視聴ユーザがフレンド関係にあることでもよい。また、複数の視聴ユーザにおける所定の関係とは、複数の視聴ユーザのうちの一の視聴ユーザの端末装置に、複数の視聴ユーザのうちの他の視聴ユーザの特定情報(電話番号、メールアドレス、所定のID(identification)等)が記憶されていることでもよい。また、複数の視聴ユーザにおける所定の関係とは、複数の視聴ユーザが同一の情報交換サービスを利用して情報交換を実施した回数が、所定回数以上である関係でもよい。また、複数の視聴ユーザにおける所定の関係とは、複数の視聴ユーザのそれぞれが同一の及び/又は異なる情報交換サービスに参加した回数が、ともに所定回数以上である関係でもよい。 The specified relationship between multiple viewing users may be that the multiple viewing users are friends. The specified relationship between multiple viewing users may be that a terminal device of one of the multiple viewing users stores specific information (such as a phone number, email address, or a specified ID (identification)) of another of the multiple viewing users. The specified relationship between multiple viewing users may be that the number of times that multiple viewing users have exchanged information using the same information exchange service is equal to or greater than a specified number. The specified relationship between multiple viewing users may be that the number of times that each of the multiple viewing users has participated in the same and/or different information exchange services is equal to or greater than a specified number.

また、複数の視聴ユーザにおける所定の関係とは、複数の視聴ユーザのうちの一の視聴ユーザが配信ユーザとして配信画像を配信した場合において、当該複数の視聴ユーザのうちの他の視聴ユーザの操作に関する関係でもよい。ここで、他の視聴ユーザの操作に関する関係とは、当該一の視聴ユーザによって配信された配信画像を当該他の視聴ユーザが視聴した回数が所定の視聴回数以上であるという関係である。また、他の視聴ユーザの操作に関する関係とは、当該一の視聴ユーザによって配信された配信画像において、当該他の視聴ユーザによるコメント情報の送信が所定の送信回数以上であるという関係でもよい。 Furthermore, the specified relationship among multiple viewing users may be a relationship regarding the operations of other viewing users among the multiple viewing users when one of the multiple viewing users distributes a distribution image as a distribution user. Here, the relationship regarding the operations of the other viewing users is a relationship in which the number of times the other viewing users have viewed the distribution image distributed by the one viewing user is equal to or greater than a specified number of views. Furthermore, the relationship regarding the operations of the other viewing users may be a relationship in which the other viewing users have sent comment information on the distribution image distributed by the one viewing user equal to or greater than a specified number of transmissions.

また、複数の視聴ユーザにおける所定の関係とは、複数の視聴ユーザのそれぞれが参加している所定のイベントに関する関係でもよい。ここで、所定のイベントに関する関係とは、複数の視聴ユーザのそれぞれが、現在同一のイベントに参加しているという関係である。また、所定のイベントに関する関係とは、複数の視聴ユーザのそれぞれが、過去に同一のイベントに参加していたという関係でもよい。また、所定のイベントに関する関係とは、複数の視聴ユーザのうちの一以上の視聴ユーザが参加しているイベントに、複数の視聴ユーザのうちの他の視聴ユーザが、過去に参加していたという関係でもよい。 The specified relationship between multiple viewing users may be a relationship regarding a specified event in which each of the multiple viewing users is participating. Here, the relationship regarding a specified event is a relationship in which each of the multiple viewing users is currently participating in the same event. The relationship regarding a specified event may be a relationship in which each of the multiple viewing users has participated in the same event in the past. The relationship regarding a specified event may be a relationship in which another viewing user of the multiple viewing users has participated in an event in which one or more viewing users of the multiple viewing users are participating in the past.

配信ユーザによる入力装置24の操作によって配信画像602の変更ボタン(図示せず)が選択された場合、選択画面800が表示される。例えば、変更ボタンは、配信画面600に含まれる。変更ボタンは、表示装置23に表示されたホーム画面等の所定の画面に含まれるものでもよい。図9(a)は、配信ユーザの端末装置2(配信端末装置)の表示装置23に表示される選択画面800の一例を示す図である。図9(a)に示される選択画面800は、配信画面600に重畳して表示される。選択画面800は、配信画面600の表示を終了させた後に表示されてもよい。 When a change button (not shown) of the distribution image 602 is selected by the distribution user operating the input device 24, a selection screen 800 is displayed. For example, the change button is included in the distribution screen 600. The change button may be included in a predetermined screen such as a home screen displayed on the display device 23. FIG. 9(a) is a diagram showing an example of the selection screen 800 displayed on the display device 23 of the distribution user's terminal device 2 (distribution terminal device). The selection screen 800 shown in FIG. 9(a) is displayed superimposed on the distribution screen 600. The selection screen 800 may be displayed after the display of the distribution screen 600 is terminated.

選択画面800には、複数の配置箇所のそれぞれを示す複数の配置候補オブジェクト801、及び、キャラクタオブジェクト601に新たに装着させる装着オブジェクトの候補となる装着候補オブジェクト802が含まれる。配信ユーザによる入力装置24の操作によって複数の配置候補オブジェクト801のいずれかが選択されると、選択された配置候補オブジェクト801に対応する配置候補に関連付けられた配信ユーザの保有オブジェクトのオブジェクトIDに対応する装着候補オブジェクト802が選択画面800に表示される。配信ユーザによる入力装置24の操作によって複数の装着候補オブジェクト802のいずれかが選択されると、入力装置24は、変更指示を端末処理装置27に入力し、表示処理部274は、上述の変更処理を実行する。そして、表示処理部274は、新たな装着オブジェクトを装着したキャラクタオブジェクト811を含む配信画像812を含む配信画面810(図9(b))を表示する。 The selection screen 800 includes a plurality of placement candidate objects 801 each indicating a plurality of placement locations, and a wearing candidate object 802 which is a candidate for a newly worn object to be worn by the character object 601. When one of the plurality of placement candidate objects 801 is selected by the broadcast user operating the input device 24, a wearing candidate object 802 corresponding to the object ID of the object owned by the broadcast user associated with the placement candidate corresponding to the selected placement candidate object 801 is displayed on the selection screen 800. When one of the plurality of wearing candidate objects 802 is selected by the broadcast user operating the input device 24, the input device 24 inputs a change instruction to the terminal processing device 27, and the display processing unit 274 executes the above-mentioned change process. Then, the display processing unit 274 displays a distribution screen 810 (FIG. 9(b)) including a distribution image 812 including a character object 811 wearing a new wearing object.

図9(b)は、配信ユーザの端末装置2(配信端末装置)の表示装置23に表示される配信画面810の他の一例を示す図である。配信画面810には、新たな装着オブジェクトを装着した配信ユーザのキャラクタオブジェクト811を含む配信画像812が少なくとも含まれる。図9(b)に示される例では、配信ユーザのキャラクタオブジェクト601が着用している衣服が変更されたキャラクタオブジェクト811が表示される。 Figure 9(b) is a diagram showing another example of a broadcast screen 810 displayed on the display device 23 of the broadcast user's terminal device 2 (broadcast terminal device). The broadcast screen 810 includes at least a broadcast image 812 including the broadcast user's character object 811 wearing a new attachment object. In the example shown in Figure 9(b), a character object 811 is displayed in which the clothing worn by the broadcast user's character object 601 has been changed.

動画配信サービスを開始した配信ユーザによって入力された変更指示に関する情報は、サーバ装置3を経由して、当該配信ユーザの配信画像を視聴している視聴ユーザの端末装置2(視聴端末装置)に送信される。これにより、配信ユーザによって入力された変更指示に応じた変更処理が、視聴ユーザの端末装置2(視聴端末装置)においても実行される。これにより、新たな装着オブジェクトが装着された配信ユーザのキャラクタオブジェクトを含む配信画像が視聴ユーザの端末装置2(視聴端末装置)に表示される。 Information regarding the change instruction input by a broadcasting user who has started a video broadcasting service is transmitted via the server device 3 to the terminal device 2 (viewing terminal device) of the viewing user who is viewing the broadcast image of that broadcasting user. As a result, a change process according to the change instruction input by the broadcasting user is also executed on the terminal device 2 (viewing terminal device) of the viewing user. As a result, a broadcast image including the broadcasting user's character object with the new attachment object attached is displayed on the terminal device 2 (viewing terminal device) of the viewing user.

図8及び図9を参照して説明したように、視聴ユーザによる追加指示に応じて、ユーザ配信ユーザのキャラクタオブジェクトを含む配信画像の少なくとも一部が変更され、配信ユーザによる変更指示に応じて、配信ユーザのキャラクタオブジェクトの少なくとも一部が変更される。これにより、配信イベント中に、視聴ユーザが飽きてしまうこと防止し、動画配信サービスを継続利用しようとするユーザの意欲を向上させることが可能となる。 As described with reference to Figures 8 and 9, at least a portion of the broadcast image including the broadcast user's character object is changed in response to an additional instruction from the viewing user, and at least a portion of the broadcast user's character object is changed in response to a change instruction from the broadcast user. This makes it possible to prevent the viewing user from becoming bored during the broadcast event and to increase the user's motivation to continue using the video broadcast service.

また、従来の情報処理システムでは、配信ユーザは、キャラクタオブジェクトを介して視聴ユーザへの配信イベントを開始した後に、キャラクタオブジェクトを含む配信画像を変更しようとするためには、配信イベントを中断しなければならなかった。そして、配信イベントが中断された後に、キャラクタオブジェクトの外観及び/又はキャラクタオブジェクトを含む配信画像内の背景等の画像を変更するための機能を起動させる必要があった。そして、配信ユーザは、変更機能を用いてキャラクタオブジェクト及び/又は配信画像を変更した後に、配信イベントを再開するという煩雑な手続きを行う必要があった。これに対し、本実施形態の情報処理システム1は、配信イベントを中断して配信ユーザのキャラクタオブジェクトの再設定を行うことなく、配信ユーザのキャラクタオブジェクトの変更を可能とする。これにより、本実施形態の情報処理システム1では、配信イベント中に配信ユーザのキャラクタオブジェクトを変更させるためのユーザインターフェースが複雑とならないため、従来の情報処理システムより、ユーザビリティを向上させることが可能となる。また、本実施形態の情報処理システム1では、配信イベントを中断することなくユーザのキャラクタオブジェクトの変更が可能であるため、サーバ装置3及び端末装置2間の通信回数及び通信量を低減させることができる。このように、本実施形態の情報処理システム1では、サーバ装置3及び端末装置2間の通信を改善することが可能となる。 In addition, in the conventional information processing system, after starting a distribution event to a viewing user via a character object, the distribution user had to interrupt the distribution event in order to change the distribution image including the character object. Then, after the distribution event was interrupted, it was necessary to activate a function for changing the appearance of the character object and/or the image of the background in the distribution image including the character object. Then, the distribution user had to carry out a cumbersome procedure of using the change function to change the character object and/or the distribution image, and then resuming the distribution event. In contrast, the information processing system 1 of the present embodiment allows the distribution user to change the character object of the distribution user without interrupting the distribution event and resetting the character object of the distribution user. As a result, in the information processing system 1 of the present embodiment, the user interface for changing the character object of the distribution user during the distribution event is not complicated, so that it is possible to improve usability compared to the conventional information processing system. In addition, in the information processing system 1 of the present embodiment, since it is possible to change the user's character object without interrupting the distribution event, it is possible to reduce the number of communications and the amount of communication between the server device 3 and the terminal device 2. In this way, the information processing system 1 of the present embodiment allows the communication between the server device 3 and the terminal device 2 to be improved.

図10(a)は、ユーザの端末装置2の表示装置23に表示されるグループ設定画面900の一例を示す図である。グループ設定画面900は、表示装置23に表示されたホーム画面等の所定の画面に対するユーザの操作に応じて表示される。グループ設定画面900を表示可能な端末装置2を操作できるユーザは、配信ユーザ又は視聴ユーザである。グループ設定画面900を表示可能な端末装置2を操作できるユーザは、配信ユーザ及び視聴ユーザに限定されず、サーバ装置3によって提供されるサービスを受けることが可能なユーザであれば、どのようなユーザでもよい。グループ設定画面900に対するユーザの操作に応じて、新たな情報交換グループが設定される。 FIG. 10(a) is a diagram showing an example of a group setting screen 900 displayed on the display device 23 of a user's terminal device 2. The group setting screen 900 is displayed in response to a user's operation on a predetermined screen, such as a home screen, displayed on the display device 23. A user who can operate a terminal device 2 capable of displaying the group setting screen 900 is a broadcasting user or a viewing user. A user who can operate a terminal device 2 capable of displaying the group setting screen 900 is not limited to a broadcasting user or a viewing user, and may be any user who is capable of receiving services provided by the server device 3. A new information exchange group is set in response to a user's operation on the group setting screen 900.

図10(a)に示されるように、グループ設定画面900には、候補表示領域901、選択オブジェクト902と、開始ボタン903と、が含まれる。候補表示領域901には、情報交換グループに所属可能な一又は複数の候補ユーザを示す情報が表示される。例えば、情報交換グループに所属可能な一又は複数の候補ユーザは、グループ設定画面900を表示した端末装置2を操作するユーザの相互フォロワーであるユーザである。または、情報交換グループに所属可能な一又は複数の候補ユーザは、グループ設定画面900を表示した端末装置2を操作するユーザとフレンド関係にあるユーザでもよい。情報交換グループに所属可能な一又は複数の候補ユーザは、上述に限らず、グループ設定画面900を表示した端末装置2を操作するユーザと所定の関係を有するユーザであればどのようなユーザでもよい。図10(a)に示される例では、ユーザの端末装置2の表示処理部274は、情報交換グループに所属可能な複数のユーザのキャラクタオブジェクトのそれぞれサムネイル画像及び名称を、候補ユーザを示す情報として候補表示領域901に表示する。 10(a), the group setting screen 900 includes a candidate display area 901, a selection object 902, and a start button 903. The candidate display area 901 displays information indicating one or more candidate users who can belong to the information exchange group. For example, the one or more candidate users who can belong to the information exchange group are users who are mutual followers of the user who operates the terminal device 2 that displays the group setting screen 900. Alternatively, the one or more candidate users who can belong to the information exchange group may be users who have a friend relationship with the user who operates the terminal device 2 that displays the group setting screen 900. The one or more candidate users who can belong to the information exchange group are not limited to the above, and may be any users who have a predetermined relationship with the user who operates the terminal device 2 that displays the group setting screen 900. In the example shown in FIG. 10(a), the display processing unit 274 of the user's terminal device 2 displays thumbnail images and names of the character objects of the multiple users who can belong to the information exchange group in the candidate display area 901 as information indicating the candidate users.

選択オブジェクト902は、候補表示領域901に表示された各候補ユーザを選択するための操作オブジェクトである。図10(a)に示される例では、ユーザの端末装置2の表示処理部274は、各候補ユーザに対応するチェックボックスオブジェクトを選択オブジェクト902として表示する。例えば、ユーザの入力装置24の操作によって選択オブジェクト902が選択されると、選択オブジェクト902が「チェック」マークを含む表示となる。この場合、「チェック」マークを含む表示となっている選択オブジェクト902に対応する候補ユーザが選択された状態となる。また、「チェック」マークを含む表示となっている選択オブジェクト902がユーザの入力装置24の操作によって選択されると、選択オブジェクト902が「チェック」マークを含まない表示となる。この場合、「チェック」マークを含まない表示となっている選択オブジェクト902に対応する候補ユーザが選択されていない状態となる。選択オブジェクト902のそれぞれには、対応する候補ユーザのユーザIDが関連付けられている。 The selection object 902 is an operation object for selecting each candidate user displayed in the candidate display area 901. In the example shown in FIG. 10(a), the display processing unit 274 of the user's terminal device 2 displays a check box object corresponding to each candidate user as the selection object 902. For example, when the selection object 902 is selected by the user's operation of the input device 24, the selection object 902 is displayed with a "check" mark. In this case, the candidate user corresponding to the selection object 902 with the display with the "check" mark is selected. Also, when the selection object 902 with the display with the "check" mark is selected by the user's operation of the input device 24, the selection object 902 is displayed without the "check" mark. In this case, the candidate user corresponding to the selection object 902 with the display without the "check" mark is not selected. Each of the selection objects 902 is associated with the user ID of the corresponding candidate user.

開始ボタン903は、ユーザが新たに情報交換グループを作成し、新たに作成した情報交換グループに所属する他ユーザとの情報交換を開始するためのボタンオブジェクト等である。ユーザによる入力装置24の操作によって開始ボタン903が選択されると、端末装置2を操作するユーザと選択オブジェクト902によって選択された状態の候補ユーザとが所属ユーザとして所属する新たな情報交換グループが作成される。例えば、ユーザの端末装置2の表示処理部274は、端末記憶装置22に記憶されたユーザのユーザIDと、選択オブジェクト902によって選択された状態の選択オブジェクト902に関連付けられた候補ユーザのユーザIDと、を特定する。そして、表示処理部274は、新たに作成したグループIDに、特定されたユーザのユーザID及び候補ユーザのユーザIDを、所属ユーザとして関連付けてグループテーブルT3に記憶する。この際、表示処理部274は、新たに作成したグループIDに対して、自動的に作成した情報交換グループの名称を対応付けてもよく、又は、ユーザによって入力された情報交換グループの名称を対応付けてもよい。開始ボタン903の選択に応じて新たな情報交換グループが作成されると、表示処理部274は、新たな情報交換グループの所属ユーザによる情報交換画面1000を表示する。 The start button 903 is a button object or the like for the user to create a new information exchange group and start exchanging information with other users who belong to the newly created information exchange group. When the start button 903 is selected by the user operating the input device 24, a new information exchange group is created to which the user operating the terminal device 2 and the candidate user selected by the selection object 902 belong as belonging users. For example, the display processing unit 274 of the user's terminal device 2 identifies the user ID of the user stored in the terminal storage device 22 and the user ID of the candidate user associated with the selection object 902 selected by the selection object 902. Then, the display processing unit 274 associates the user ID of the identified user and the user ID of the candidate user with the newly created group ID as belonging users and stores them in the group table T3. At this time, the display processing unit 274 may automatically associate the name of the information exchange group created with the newly created group ID, or may associate the name of the information exchange group input by the user with the newly created group ID. When a new information exchange group is created by selecting the start button 903, the display processing unit 274 displays an information exchange screen 1000 for users belonging to the new information exchange group.

図10(b)は、ユーザの端末装置2の表示装置23に表示される情報交換開始画面910の一例を示す図である。情報交換開始画面910は、表示装置23に表示されたホーム画面等の所定の画面に対するユーザの操作に応じて表示される。情報交換開始画面910を表示可能な端末装置2を操作できるユーザは、配信ユーザ又は視聴ユーザである。情報交換開始画面910を表示可能な端末装置2を操作できるユーザは、配信ユーザ及び視聴ユーザに限定されず、サーバ装置3によって提供されるサービスを受けることが可能なユーザであれば、どのようなユーザでもよい。情報交換開始画面910に対するユーザの操作に応じて、選択された情報交換グループによる情報交換が開始される。 FIG. 10(b) is a diagram showing an example of an information exchange start screen 910 displayed on the display device 23 of the user's terminal device 2. The information exchange start screen 910 is displayed in response to a user's operation on a predetermined screen, such as a home screen, displayed on the display device 23. A user who can operate a terminal device 2 capable of displaying the information exchange start screen 910 is a broadcasting user or a viewing user. A user who can operate a terminal device 2 capable of displaying the information exchange start screen 910 is not limited to a broadcasting user or a viewing user, and may be any user who is capable of receiving services provided by the server device 3. In response to a user's operation on the information exchange start screen 910, information exchange by the selected information exchange group is started.

図10(b)に示されるように、情報交換開始画面910には、候補グループ領域911が含まれる。候補グループ領域911には、情報交換開始画面910を表示する端末装置2を操作するユーザが所属している情報交換グループを示す情報が表示される。情報交換グループを示す情報は、ユーザによって選択可能であり、情報交換グループを示す情報には、対応する情報交換グループのグループIDが関連付けられている。 As shown in FIG. 10(b), the information exchange start screen 910 includes a candidate group area 911. The candidate group area 911 displays information indicating an information exchange group to which the user operating the terminal device 2 displaying the information exchange start screen 910 belongs. The information indicating the information exchange group can be selected by the user, and the information indicating the information exchange group is associated with the group ID of the corresponding information exchange group.

ユーザによる入力装置24の操作によって、情報交換開始画面910に含まれるいずれかの情報交換グループを示す情報が選択されると、選択された情報交換グループを示す情報に関連付けられているグループIDが特定される。表示処理部274は、特定されたグループIDに関連付けられたユーザIDによって識別される各ユーザ(特定されたグループIDによって示される情報交換グループに所属する各ユーザ)による情報交換画面1000を表示する。 When the user operates the input device 24 to select information indicating one of the information exchange groups included in the information exchange start screen 910, the group ID associated with the information indicating the selected information exchange group is identified. The display processing unit 274 displays the information exchange screen 1000 by each user identified by the user ID associated with the identified group ID (each user belonging to the information exchange group indicated by the identified group ID).

図11(a)は、ユーザの端末装置2の表示装置23に表示される情報交換画面1000の一例を示す図である。情報交換画面1000では、グループ設定画面900に含まれる開始ボタン903がユーザによって選択されたことにより新たに設定された情報交換グループに所属する複数のユーザによる情報交換が行われる。または、情報交換画面1000では、情報交換開始画面910においてユーザによって選択された情報交換グループに所属する複数のユーザによる情報交換が行われる。以下、情報交換を行う情報交換グループに所属する複数のユーザのうち、情報交換画面1000を表示している端末装置2を操作するユーザ以外のユーザを、他ユーザと称する場合がある。情報交換画面1000(及び後述する各情報交換画面)は、テキストチャット等を実現する所謂チャット画面等によって実現されてもよい。 11(a) is a diagram showing an example of an information exchange screen 1000 displayed on the display device 23 of the user's terminal device 2. In the information exchange screen 1000, information is exchanged by multiple users belonging to an information exchange group newly set by the user selecting the start button 903 included in the group setting screen 900. Alternatively, in the information exchange screen 1000, information is exchanged by multiple users belonging to an information exchange group selected by the user in the information exchange start screen 910. Hereinafter, among the multiple users belonging to the information exchange group performing information exchange, users other than the user operating the terminal device 2 displaying the information exchange screen 1000 may be referred to as other users. The information exchange screen 1000 (and each information exchange screen described later) may be realized by a so-called chat screen or the like that realizes text chat or the like.

情報交換画面1000には、他ユーザ入力情報1001と、他ユーザ情報1002と、テキスト入力オブジェクト1003と、候補表示ボタン1004と、ユーザ入力情報1005と、が含まれる。他ユーザ入力情報1001は、他ユーザによって入力された入力情報である。他ユーザ情報1002は、他ユーザ入力情報1001ごとに対応付けられて表示される他ユーザを示す情報(キャラクタオブジェクトのアイコン画像等)である。テキスト入力オブジェクト1003は、入力情報としてのテキスト情報をユーザが入力するための操作オブジェクトである。候補表示ボタン1004は、キャラクタ関連画像に対応する候補情報1101を、ユーザが選択できるように表示させるための操作オブジェクトである。ユーザ入力情報1005は、ユーザによって入力された入力情報である。 The information exchange screen 1000 includes other user input information 1001, other user information 1002, a text input object 1003, a candidate display button 1004, and user input information 1005. The other user input information 1001 is input information input by other users. The other user information 1002 is information indicating other users (such as an icon image of a character object) that is associated with each other user input information 1001 and displayed. The text input object 1003 is an operation object that allows the user to input text information as input information. The candidate display button 1004 is an operation object that displays candidate information 1101 corresponding to a character-related image so that the user can select it. The user input information 1005 is input information input by the user.

他ユーザの端末装置2から送信された他ユーザの入力情報がサーバ装置3を経由して受信される度に、表示処理部274は、情報交換画面1000の他ユーザ表示領域に、受信された他ユーザの入力情報を示す他ユーザ入力情報1001を表示する。例えば、他ユーザ表示領域は、情報交換画面1000の左辺近傍領域であり、他ユーザ入力情報1001は、他ユーザ表示領域に、最も古いものから順に画面の上から下に向けて時系列に表示される。ユーザの入力情報が、テキスト入力オブジェクト1003に対するユーザの入力操作によって入力される度に、表示処理部274は、情報交換画面1000のユーザ表示領域に、入力されたユーザの入力情報を示すユーザ入力情報1005を表示する。例えば、ユーザ表示領域は、情報交換画面1000の右辺近傍領域であり、ユーザ入力情報1005は、ユーザ表示領域に、最も古いものから順に画面の上から下に向けて時系列に表示される。 Every time the input information of another user transmitted from the terminal device 2 of the other user is received via the server device 3, the display processing unit 274 displays other user input information 1001 indicating the received input information of the other user in the other user display area of the information exchange screen 1000. For example, the other user display area is an area near the left side of the information exchange screen 1000, and the other user input information 1001 is displayed in the other user display area in chronological order from the oldest to the top to the bottom of the screen. Every time the user input information is input by the user's input operation on the text input object 1003, the display processing unit 274 displays user input information 1005 indicating the input user input information in the user display area of the information exchange screen 1000. For example, the user display area is an area near the right side of the information exchange screen 1000, and the user input information 1005 is displayed in chronological order from the oldest to the top to the bottom of the screen in the user display area.

ユーザの端末装置2の送信部272は、新たに設定された情報交換グループに係る情報交換画面1000が表示された場合、新たな情報交換グループに関する情報を、端末通信I/F21を介してサーバ装置3に送信する。新たな情報交換グループに関する情報は、新たな情報交換グループのグループID、新たな情報交換グループの名称、及び新たな情報交換グループに所属するユーザのユーザIDである。 When the information exchange screen 1000 related to the newly set information exchange group is displayed, the transmission unit 272 of the user's terminal device 2 transmits information related to the new information exchange group to the server device 3 via the terminal communication I/F 21. The information related to the new information exchange group includes the group ID of the new information exchange group, the name of the new information exchange group, and the user IDs of the users who belong to the new information exchange group.

サーバ装置3のサーバ受信部331は、サーバ通信I/F31を介して、情報交換グループに関する情報を受信する。サーバ受信部331は、受信した新たな情報交換グループに関する情報をサーバ記憶装置32に記憶する。例えば、サーバ受信部331は、新たな情報交換グループのグループIDに関連付けて、新たな情報交換グループの名称、及び新たな情報交換グループに所属するユーザのユーザIDをサーバ記憶装置32に記憶する。 The server receiving unit 331 of the server device 3 receives information related to the information exchange group via the server communication I/F 31. The server receiving unit 331 stores the received information related to the new information exchange group in the server storage device 32. For example, the server receiving unit 331 stores the name of the new information exchange group and the user IDs of the users belonging to the new information exchange group in association with the group ID of the new information exchange group in the server storage device 32.

サーバ装置3のサーバ送信部332は、新たな情報交換グループに関する情報を、新たな情報交換グループに所属するユーザのうちの、新たな情報交換グループに関する情報を送信したユーザ以外のユーザのユーザIDによって示される他ユーザの端末装置2にサーバ通信I/F31を介して送信する。 The server transmission unit 332 of the server device 3 transmits information about the new information exchange group via the server communication I/F 31 to the terminal devices 2 of other users who belong to the new information exchange group and who are identified by the user IDs of users other than the user who transmitted the information about the new information exchange group.

他ユーザの端末装置2の受信部273は、サーバ装置3経由でユーザの端末装置2から送信された新たな情報交換グループに関する情報を受信すると、新たな情報交換グループのグループIDに関連付けて、新たな情報交換グループの名称、及び新たな情報交換グループに所属するユーザのユーザIDを、グループテーブルT3に記憶する。なお、他ユーザの端末装置2の表示処理部274は、新たな情報交換グループに関する情報を受信すると、自動的に新たな情報交換グループに係る情報交換画面1000を表示してもよい。 When the receiving unit 273 of the other user's terminal device 2 receives information about a new information exchange group transmitted from the user's terminal device 2 via the server device 3, it stores the name of the new information exchange group and the user IDs of the users belonging to the new information exchange group in the group table T3 in association with the group ID of the new information exchange group. Note that when the display processing unit 274 of the other user's terminal device 2 receives information about the new information exchange group, it may automatically display the information exchange screen 1000 related to the new information exchange group.

情報交換画面1000において、ユーザの操作によってテキスト入力オブジェクト1003に新たなテキスト情報が入力情報として入力されると、表示処理部274は、入力された新たなテキスト情報を、ユーザ入力情報1005としてユーザ表示領域に表示する。情報交換画面1000において、ユーザの操作によって画像情報又は動画情報等が入力情報として入力されると、表示処理部274は、入力された画像情報又は動画情報等を、ユーザ入力情報1005としてユーザ表示領域に表示する。入力情報として入力される情報は、テキスト情報、画像情報、及び動画情報に限定されず、所定のアプリケーションプログラムによって利用可能な形式の情報でもよい。 When new text information is input as input information to the text input object 1003 by a user's operation on the information exchange screen 1000, the display processing unit 274 displays the new input text information in the user display area as user input information 1005. When image information, video information, etc. is input as input information by a user's operation on the information exchange screen 1000, the display processing unit 274 displays the input image information, video information, etc. in the user display area as user input information 1005. Information input as input information is not limited to text information, image information, and video information, and may be information in a format that can be used by a specified application program.

他ユーザの端末装置2によって表示された情報交換画面1000において他ユーザの操作によって入力された入力情報が、他ユーザのユーザIDとともに、サーバ装置3経由で受信された場合、受信された入力情報が、他ユーザ入力情報として他ユーザ表示領域に表示される。この場合、受信された他ユーザのユーザIDに関連する画像等が他ユーザ情報1002として表示される。 When input information entered by another user's operation on the information exchange screen 1000 displayed by the other user's terminal device 2 is received via the server device 3 together with the other user's user ID, the received input information is displayed in the other user display area as other user input information. In this case, an image or the like related to the received user ID of the other user is displayed as other user information 1002.

ユーザの端末装置2の送信部272は、入力された新たなテキスト情報及びユーザのユーザIDを、サーバ装置3を経由して他ユーザの端末装置2に送信する。これにより、テキスト情報を入力したユーザ以外の所属ユーザである他ユーザの端末装置2に表示される情報交換画面1000においても、入力された新たなテキスト情報が他ユーザ入力情報1001として表示される。 The transmission unit 272 of the user's terminal device 2 transmits the new text information that has been input and the user's user ID to the terminal device 2 of the other user via the server device 3. As a result, the new text information that has been input is also displayed as other user input information 1001 on the information exchange screen 1000 that is displayed on the terminal device 2 of the other user who is a user belonging to a user other than the user who input the text information.

情報交換画面1000において、ユーザによる入力装置24の操作によって候補表示ボタン1004が選択された場合、入力装置24は、キャラクタ関連画像を選択するための候補情報の表示指示を端末処理装置27に送出する。次に、表示処理部274は、ユーザのキャラクタオブジェクトを含むキャラクタ関連画像が過去に生成されて端末記憶装置22に記憶されているか否かを判定する。ユーザのキャラクタオブジェクトを含むキャラクタ関連画像が記憶されていない場合、表示処理部274は、キャラクタ関連画像の生成を指示するための生成指示オブジェクト1006を表示する。また、ユーザのキャラクタオブジェクトを含むキャラクタ関連画像が記憶されている場合、例えば、表示処理部274は、記憶されている4種類の候補情報1101を含む情報交換画面1100を表示する。 When the user operates the input device 24 to select the candidate display button 1004 on the information exchange screen 1000, the input device 24 sends to the terminal processing device 27 an instruction to display candidate information for selecting a character-related image. Next, the display processing unit 274 determines whether or not a character-related image including the user's character object has been generated in the past and stored in the terminal storage device 22. If a character-related image including the user's character object has not been stored, the display processing unit 274 displays a generation instruction object 1006 for instructing the generation of a character-related image. Also, if a character-related image including the user's character object has been stored, for example, the display processing unit 274 displays the information exchange screen 1100 including the four types of stored candidate information 1101.

図11(b)は、ユーザの端末装置2の表示装置23に表示される情報交換画面1010の一例を示す図である。情報交換画面1010は、情報交換画面1000に含まれる候補表示ボタン1004がユーザによって選択されたときに、ユーザのキャラクタオブジェクトを含むキャラクタ関連画像が端末記憶装置22に記憶されていないと判定された場合に表示される画面である。 Figure 11 (b) is a diagram showing an example of an information exchange screen 1010 displayed on the display device 23 of the user's terminal device 2. The information exchange screen 1010 is a screen that is displayed when the candidate display button 1004 included in the information exchange screen 1000 is selected by the user and it is determined that a character-related image including the user's character object is not stored in the terminal storage device 22.

情報交換画面1010には、情報交換画面1000と同様に、他ユーザ入力情報1001と、他ユーザ情報1002と、テキスト入力オブジェクト1003と、候補表示ボタン1004と、ユーザ入力情報1005と、が含まれる。さらに、情報交換画面1010には、生成指示オブジェクト1006が含まれる。図11(b)に示される例では、情報交換画面1010において、生成指示オブジェクト1006とともに、キャラクタ関連画像の生成を促す情報が表示される。 The information exchange screen 1010, like the information exchange screen 1000, includes other user input information 1001, other user information 1002, a text input object 1003, a candidate display button 1004, and user input information 1005. In addition, the information exchange screen 1010 includes a generation instruction object 1006. In the example shown in FIG. 11(b), the information exchange screen 1010 displays information encouraging the generation of a character-related image together with the generation instruction object 1006.

情報交換画面1010において、ユーザによる入力装置24の操作によって生成指示オブジェクト1006が選択された場合、入力装置24は、キャラクタ関連画像の生成指示を端末処理装置27に送出する。生成部271は、入力装置24からキャラクタ関連画像の生成指示を取得した場合、キャラクタ関連画像の生成処理を実行する。以下、キャラクタ関連画像の生成処理の一例について説明する。 When a generation instruction object 1006 is selected on the information exchange screen 1010 by a user operating the input device 24, the input device 24 sends an instruction to generate a character-related image to the terminal processing device 27. When the generation unit 271 acquires an instruction to generate a character-related image from the input device 24, it executes a generation process of the character-related image. An example of the generation process of a character-related image is described below.

まず、生成部271は、端末記憶装置22に記憶されたユーザIDに関連付けられたキャラクタオブジェクトのモデルIDと、使用オブジェクトのオブジェクトIDとをユーザテーブルT1から抽出する。次に、生成部271は、抽出したモデルIDに関連付けられたモデルデータと、抽出した使用オブジェクトのオブジェクトIDに関連付けられた画像情報及び配置箇所を端末記憶装置22から読み出す。次に、生成部271は、キャラクタ関連画像用のモーションデータ及びキャラクタ関連画像用のオブジェクトデータを端末記憶装置22から読み出す。次に、生成部271は、読み出したモデルデータと、使用オブジェクトの画像情報及び配置箇所と、キャラクタ関連画像用のモーションデータ及びキャラクタ関連画像用のオブジェクトデータとに基づいて、所定の動作及び表情のキャラクタオブジェクトと、背景、文字等のオブジェクトデータとを含むキャラクタ関連画像を生成する。そして、生成部271は、生成したキャラクタ関連画像に、当該キャラクタ関連画像を一意に識別するための関連画像IDを関連付けて端末記憶装置22に記憶する。また、生成部271は、生成したキャラクタ関連画像を示す候補情報を生成し、生成した候補情報に、キャラクタ関連画像を識別するための関連画像IDを関連付けて端末記憶装置22に記憶する。また、生成部271は、キャラクタ関連画像の生成時における使用オブジェクトのオブジェクトIDを関連画像IDに関連付けて端末記憶装置22に記憶し、キャラクタ関連画像の生成処理が終了する。なお、生成されたキャラクタ関連画像の一部又は全部は、情報交換サービスにおいて使用できないように設定されてもよい。この場合、情報交換サービスにおいて使用可能なキャラクタ関連画像によって構成される使用可能グループが設定されてもよい。そして、情報交換サービスにおいて使用可能な新たなキャラクタ関連画像が生成されると、当該新たなキャラクタ関連画像は使用可能グループに含まれるように設定される。 First, the generation unit 271 extracts the model ID of the character object associated with the user ID stored in the terminal storage device 22 and the object ID of the used object from the user table T1. Next, the generation unit 271 reads out the model data associated with the extracted model ID and the image information and arrangement location associated with the extracted object ID of the used object from the terminal storage device 22. Next, the generation unit 271 reads out the motion data for the character-related image and the object data for the character-related image from the terminal storage device 22. Next, the generation unit 271 generates a character-related image including a character object with a predetermined action and expression, and object data such as a background and characters, based on the read out model data, the image information and arrangement location of the used object, the motion data for the character-related image, and the object data for the character-related image. Then, the generation unit 271 associates the generated character-related image with an associated image ID for uniquely identifying the character-related image, and stores the associated image in the terminal storage device 22. The generation unit 271 also generates candidate information indicating the generated character-related image, associates the generated candidate information with a related image ID for identifying the character-related image, and stores the associated information in the terminal storage device 22. The generation unit 271 also associates the object ID of the object used when generating the character-related image with the related image ID and stores the associated information in the terminal storage device 22, and the character-related image generation process ends. Note that some or all of the generated character-related images may be set so as not to be usable in the information exchange service. In this case, a usable group consisting of character-related images usable in the information exchange service may be set. Then, when a new character-related image usable in the information exchange service is generated, the new character-related image is set to be included in the usable group.

以下、キャラクタ関連画像の送信処理の一例について説明する。まず、キャラクタ関連画像を生成した端末装置2の送信部272は、端末記憶装置22に記憶された、関連画像IDに関連付けられたキャラクタ関連画像、候補情報、及び使用オブジェクトのオブジェクトIDを、端末通信I/F21を介してサーバ装置3に送信する。なお、関連画像IDに関連付けられたキャラクタ関連画像、候補情報、及び使用オブジェクトのオブジェクトIDとともに、端末記憶装置22に記憶されたユーザIDが、サーバ装置3に送信される。サーバ装置3のサーバ受信部331は、関連画像IDに関連付けられたキャラクタ関連画像、候補情報、及び使用オブジェクトのオブジェクトIDと、ユーザIDとを受信すると、ユーザIDに関連画像IDを関連付けて記憶するとともに、関連画像IDに関連付けて、キャラクタ関連画像、候補情報、及び使用オブジェクトのオブジェクトIDをサーバ記憶装置32に記憶する。そして、サーバ送信部332は、キャラクタ関連画像等を送信した端末装置2のユーザが所属する情報交換グループに所属する他のユーザの端末装置2に、受信された、ユーザのユーザIDに関連付けられた関連画像IDと、当該関連画像IDに関連付けられたキャラクタ関連画像、候補情報、及び使用オブジェクトのオブジェクトIDを、サーバ通信I/F31を介して送信する。他のユーザの端末装置2は、送信された、ユーザIDに関連付けられた関連画像IDと、当該関連画像IDに関連付けられたキャラクタ関連画像、候補情報、及び使用オブジェクトのオブジェクトIDを端末記憶装置22に記憶する。以上により、キャラクタ関連画像の送信処理が終了する。なお、キャラクタ関連画像を生成した端末装置2の送信部272は、端末記憶装置22に記憶された、関連画像IDに関連付けられた候補情報及び使用オブジェクトのオブジェクトIDをサーバ装置3に送信しなくてもよい。また、情報交換グループに所属する他のユーザの端末装置2に、同じ情報交換グループに所属する一のユーザのユーザIDに関連付けられた、候補情報及び使用オブジェクトのオブジェクトIDが送信されなくてもよい。また、情報交換グループに所属する他のユーザの端末装置2に、同じ情報交換グループに所属する一のユーザのユーザIDに関連付けられたキャラクタ関連画像が送信されるタイミングは、一のユーザが、キャラクタ関連画像を入力情報として選択したタイミングでもよい。キャラクタ関連画像の送信処理は、キャラクタ関連画像の生成処理及び/又は追加生成処理が実行されるたびに実行されてもよい。 An example of a character-related image transmission process is described below. First, the transmission unit 272 of the terminal device 2 that generated the character-related image transmits the character-related image, candidate information, and object ID of the used object associated with the related image ID stored in the terminal storage device 22 to the server device 3 via the terminal communication I/F 21. The user ID stored in the terminal storage device 22 is transmitted to the server device 3 together with the character-related image, candidate information, and object ID of the used object associated with the related image ID. When the server receiving unit 331 of the server device 3 receives the character-related image, candidate information, and object ID of the used object associated with the related image ID and the user ID, it associates the related image ID with the user ID and stores it, and also associates the character-related image, candidate information, and object ID of the used object with the related image ID in the server storage device 32. Then, the server transmission unit 332 transmits the received related image ID associated with the user ID of the user, the character-related image associated with the related image ID, the candidate information, and the object ID of the used object to the terminal device 2 of the other user belonging to the information exchange group to which the user of the terminal device 2 that transmitted the character-related image, etc. belongs, via the server communication I/F 31. The terminal device 2 of the other user stores the transmitted related image ID associated with the user ID, the character-related image associated with the related image ID, the candidate information, and the object ID of the used object in the terminal storage device 22. With the above, the transmission process of the character-related image is completed. Note that the transmission unit 272 of the terminal device 2 that generated the character-related image may not transmit the candidate information associated with the related image ID and the object ID of the used object stored in the terminal storage device 22 to the server device 3. Also, the candidate information and the object ID of the used object associated with the user ID of one user belonging to the same information exchange group may not be transmitted to the terminal device 2 of the other user belonging to the information exchange group. Furthermore, the timing at which a character-related image associated with the user ID of a user belonging to the same information exchange group is transmitted to the terminal device 2 of another user belonging to the same information exchange group may be the timing at which the user selects the character-related image as input information. The character-related image transmission process may be performed each time the character-related image generation process and/or additional generation process is performed.

表示処理部274は、生成部271によって生成された候補情報を、端末記憶装置22から読み出して表示する。図12(a)は、ユーザの端末装置2の表示装置23に表示される情報交換画面1100の一例を示す図である。情報交換画面1100は、情報交換画面1010に含まれる生成指示オブジェクト1006がユーザによって選択されたときに表示される画面である。 The display processing unit 274 reads out the candidate information generated by the generation unit 271 from the terminal storage device 22 and displays it. FIG. 12(a) is a diagram showing an example of an information exchange screen 1100 displayed on the display device 23 of the user's terminal device 2. The information exchange screen 1100 is a screen that is displayed when the generation instruction object 1006 included in the information exchange screen 1010 is selected by the user.

情報交換画面1100には、情報交換画面1000と同様に、他ユーザ入力情報1001と、他ユーザ情報1002と、テキスト入力オブジェクト1003と、候補表示ボタン1004と、ユーザ入力情報1005と、が含まれる。さらに、情報交換画面1010には、生成された4種類の候補情報1101及び追加生成ボタン1102が含まれる。情報交換画面1100に含まれる候補情報1101の種類は4種類に限らず、3種類以下でも5種類以上でもよい。端末装置2の表示処理部274は、複数種類の候補情報1101の一部を情報交換画面1100の表示領域内に含めることができない場合、候補情報1101をスクロール可能に表示してもよい。この場合、ユーザによるスワイプ操作(例えば、指が画面に接しながら当該指が画面右から左に移動する操作)に応じて、情報交換画面1100の表示領域内に現在含まれていない候補情報1101がスクロールされて、情報交換画面1100の表示領域内に表示される。 The information exchange screen 1100 includes other user input information 1001, other user information 1002, a text input object 1003, a candidate display button 1004, and user input information 1005, similar to the information exchange screen 1000. Furthermore, the information exchange screen 1010 includes four types of generated candidate information 1101 and an additional generation button 1102. The type of candidate information 1101 included in the information exchange screen 1100 is not limited to four types, and may be three or less, or five or more types. When a part of the multiple types of candidate information 1101 cannot be included in the display area of the information exchange screen 1100, the display processing unit 274 of the terminal device 2 may display the candidate information 1101 in a scrollable manner. In this case, in response to a swipe operation by the user (for example, an operation in which a finger is moved from right to left while touching the screen), the candidate information 1101 that is not currently included in the display area of the information exchange screen 1100 is scrolled and displayed in the display area of the information exchange screen 1100.

ユーザによる入力装置24の操作に応じて、4種類の候補情報1101の中から一つの候補情報が選択された場合(図12(b))、入力装置24は、選択された候補情報に関連付けられた関連画像IDを端末処理装置27に送出する。次に、表示処理部274は、入力装置24から受け取った関連画像IDによって識別されるキャラクタ関連画像を端末記憶装置22から抽出し、抽出されたキャラクタ関連画像を、ユーザ入力情報1201として情報交換画面1200のユーザ表示領域に表示する(図13)。ユーザ入力情報1201として表示されるキャラクタ関連画像は、2次元静止画像、又は、キャラクタオブジェクトを含む3次元の仮想空間内が描画された3次元静止画像である。ユーザ入力情報1201として表示されるキャラクタ関連画像が複数の連続したモーションデータに基づいて生成された場合、当該キャラクタ関連画像は、所定時間(例えば3秒)だけ動くキャラクタオブジェクトを含む2次元動画像でもよい。この場合、キャラクタ関連画像は、所定時間(例えば3秒)だけ動くキャラクタオブジェクトを含む3次元の仮想空間内が描画された3次元動画像でもよい。図13に示されるように、ユーザ入力情報1201として表示されたキャラクタ関連画像の表示装置23の表示画面における表示サイズは、配信画像602の表示装置23の表示画面における表示サイズより小さい。このように、キャラクタ関連画像が表示装置23の表示画面に描画される描画処理負荷は、配信画像602が表示装置23の表示画面に描画される描画処理負荷より大きい。また、配信画像602を表示するためのモーションデータを含むキャラクタ動画データは、継続的に送信されるため、当該キャラクタ動画データの送信時の伝送量は、キャラクタ関連画像を表示するための関連画像IDの送信時の伝送量よりも大きい。このように、各種サービスにおいてキャラクタ関連データが使用されることにより、配信画像が使用される場合と比較して、端末装置2及び/又はサーバ装置3の処理負荷、並びに、端末装置2及びサーバ装置3の間の送信負荷を低減させつつ、ユーザのキャラクタオブジェクトを他のユーザの端末装置2に表示させることが可能となる。 When one piece of candidate information 1101 is selected from the four types of candidate information 1101 in response to the user's operation of the input device 24 (FIG. 12(b)), the input device 24 sends the related image ID associated with the selected candidate information to the terminal processing device 27. Next, the display processing unit 274 extracts the character-related image identified by the related image ID received from the input device 24 from the terminal storage device 22, and displays the extracted character-related image in the user display area of the information exchange screen 1200 as user input information 1201 (FIG. 13). The character-related image displayed as the user input information 1201 is a two-dimensional still image, or a three-dimensional still image in which a three-dimensional virtual space including a character object is drawn. When the character-related image displayed as the user input information 1201 is generated based on multiple consecutive motion data, the character-related image may be a two-dimensional moving image including a character object that moves for a predetermined time (e.g., three seconds). In this case, the character-related image may be a three-dimensional moving image in which a three-dimensional virtual space including a character object that moves for a predetermined time (e.g., three seconds) is drawn. As shown in FIG. 13, the display size of the character-related image displayed as the user input information 1201 on the display screen of the display device 23 is smaller than the display size of the delivery image 602 on the display screen of the display device 23. In this way, the drawing processing load of drawing the character-related image on the display screen of the display device 23 is larger than the drawing processing load of drawing the delivery image 602 on the display screen of the display device 23. In addition, since the character video data including the motion data for displaying the delivery image 602 is continuously transmitted, the transmission amount of the character video data is larger than the transmission amount of the related image ID for displaying the character-related image. In this way, by using the character-related data in various services, it is possible to display the character object of a user on the terminal device 2 of another user while reducing the processing load of the terminal device 2 and/or the server device 3 and the transmission load between the terminal device 2 and the server device 3 compared to the case where the delivery image is used.

表示処理部274によるユーザ入力情報1201の表示とともに、送信部272は、入力装置24から受け取った関連画像ID及び端末記憶装置22に記憶されたユーザIDを、端末通信I/F21を介してサーバ装置3に送信する。サーバ装置3のサーバ送信部332は、サーバ受信部331によって受信されたユーザIDと同じ情報交換グループに関連付けられた他ユーザのユーザIDをサーバ記憶装置32から抽出する。また、サーバ送信部332は、抽出されたユーザIDによって識別される他ユーザの端末装置2に、サーバ受信部331によって受信された関連画像ID及びユーザIDを、サーバ通信I/F31を介して送信する。 Along with displaying the user input information 1201 by the display processing unit 274, the transmission unit 272 transmits the related image ID received from the input device 24 and the user ID stored in the terminal storage device 22 to the server device 3 via the terminal communication I/F 21. The server transmission unit 332 of the server device 3 extracts the user IDs of other users associated with the same information exchange group as the user ID received by the server reception unit 331 from the server storage device 32. In addition, the server transmission unit 332 transmits the related image ID and user ID received by the server reception unit 331 via the server communication I/F 31 to the terminal device 2 of the other user identified by the extracted user ID.

そして、他ユーザの端末装置2の受信部273は、サーバ装置3から送信された関連画像ID及びユーザIDを、端末通信I/F21を介して受信する。次に、他ユーザの端末装置2の表示処理部274は、受信部273によって受信された関連画像IDによって識別されるキャラクタ関連画像を端末記憶装置22から抽出し、抽出されたキャラクタ関連画像を、他ユーザ入力情報として配信画面の他ユーザ表示領域に表示する。このように、ユーザによって使用されたキャラクタ関連画像と同一の画像が、ユーザが所属する情報交換グループに関連付けられた他ユーザの端末装置2においても表示される。なお、他ユーザの端末装置2の表示処理部274は、受信された関連画像IDによって識別されるキャラクタ関連画像が端末記憶装置22に記憶されていない場合、他ユーザの端末装置2の送信部272は、画像送信要求をサーバ装置3に送信する。画像送信要求は、受信された関連画像ID及び/又はユーザID、並びに、他ユーザのユーザIDとともに送信される。サーバ装置3のサーバ送信部332は、サーバ受信部331によって画像送信要求が受信された場合、画像送信要求とともに受信された関連画像IDに関連付けられたキャラクタ関連画像をサーバ記憶装置32から抽出する。次に、サーバ送信部332は、抽出されたキャラクタ関連画像を、受信された関連画像ID及びユーザIDとともに他ユーザの端末装置2に送信する。他ユーザの端末装置2の受信部273は、サーバ装置3から送信された関連画像ID、キャラクタ関連画像及びユーザIDを、端末通信I/F21を介して受信し、互いに関連付けて端末記憶装置22に記憶する。そして、他ユーザの端末装置2の表示処理部274は、記憶されたキャラクタ関連画像を、他ユーザ入力情報として配信画面の他ユーザ表示領域に表示する。 Then, the receiving unit 273 of the terminal device 2 of the other user receives the related image ID and the user ID transmitted from the server device 3 via the terminal communication I/F 21. Next, the display processing unit 274 of the terminal device 2 of the other user extracts the character-related image identified by the related image ID received by the receiving unit 273 from the terminal storage device 22, and displays the extracted character-related image in the other user display area of the distribution screen as other user input information. In this way, the same image as the character-related image used by the user is also displayed on the terminal device 2 of the other user associated with the information exchange group to which the user belongs. Note that if the display processing unit 274 of the terminal device 2 of the other user does not store the character-related image identified by the received related image ID in the terminal storage device 22, the transmitting unit 272 of the terminal device 2 of the other user transmits an image transmission request to the server device 3. The image transmission request is transmitted together with the received related image ID and/or user ID, and the user ID of the other user. When the server receiving unit 331 receives an image transmission request, the server transmitting unit 332 of the server device 3 extracts from the server storage device 32 a character-related image associated with the related image ID received together with the image transmission request. Next, the server transmitting unit 332 transmits the extracted character-related image together with the received related image ID and user ID to the other user's terminal device 2. The receiving unit 273 of the other user's terminal device 2 receives the related image ID, character-related image, and user ID transmitted from the server device 3 via the terminal communication I/F 21, and stores them in the terminal storage device 22 in association with each other. Then, the display processing unit 274 of the other user's terminal device 2 displays the stored character-related image in the other user display area of the distribution screen as other user input information.

図12(a)に戻り、ユーザによる入力装置24の操作に応じて追加生成ボタン1102が選択された場合、ユーザの端末装置2の表示処理部274及び生成部271は、追加生成処理を実行する。追加生成処理は、例えば、情報交換サービスを利用して、ユーザと情報交換を行っている他ユーザを示すキャラクタオブジェクト及び/又はユーザと情報交換を行ったことがある他ユーザを示すキャラクタオブジェクトを含む新たなキャラクタ関連画像を生成する処理である。ユーザと情報交換を行っている他ユーザとは、例えば、ユーザの端末装置2に現在表示されている情報交換画面に係る情報交換を行うための情報交換画面を表示している端末装置2の他ユーザである。または、ユーザと情報交換を行っている他ユーザとは、ユーザの端末装置2に現在表示されている情報交換画面に係る情報交換を行うための情報交換画面を表示するための制御プログラムを実行中の端末装置2の他ユーザでもよい。 Returning to FIG. 12(a), when the additional generation button 1102 is selected in response to the user's operation of the input device 24, the display processing unit 274 and the generation unit 271 of the user's terminal device 2 execute the additional generation process. The additional generation process is, for example, a process of generating a new character-related image including a character object representing another user exchanging information with the user and/or a character object representing another user who has exchanged information with the user, using an information exchange service. The other user exchanging information with the user is, for example, another user of the terminal device 2 displaying an information exchange screen for information exchange related to the information exchange screen currently displayed on the user's terminal device 2. Alternatively, the other user exchanging information with the user may be another user of the terminal device 2 executing a control program for displaying an information exchange screen for information exchange related to the information exchange screen currently displayed on the user's terminal device 2.

図14(a)は、ユーザの端末装置2の表示装置23に表示される他オブジェクト選択画面1300の一例を示す図である。他オブジェクト選択画面1300は、追加生成処理によって生成される新たなキャラクタ関連画像に含まれるオブジェクトデータを選択するための画面である。 Figure 14 (a) is a diagram showing an example of an other object selection screen 1300 displayed on the display device 23 of the user's terminal device 2. The other object selection screen 1300 is a screen for selecting object data included in a new character-related image generated by the additional generation process.

キャラクタ関連画像に含まれるオブジェクトデータには、例えば、背景を示すオブジェクトデータ、文字を示すオブジェクトデータが含まれる。また、キャラクタ関連画像に含まれるオブジェクトデータには、デザインを示すオブジェクトデータが含まれてもよい。例えば、デザインを示すオブジェクトデータは、枠(フレーム)等の絵柄を示すオブジェクトデータである。また、キャラクタ関連画像に含まれるオブジェクトデータには、エフェクトを示すオブジェクトデータが含まれてもよい。例えば、エフェクトを示すオブジェクトデータは、装飾(glitter等)を示すオブジェクトデータであり、キャラクタオブジェクトの周囲に配置される「星」の形状のオブジェクトデータ、又は、涙若しくは汗を示す「雫」の形状のオブジェクトデータ等である。 The object data included in the character-related image may include, for example, object data showing a background and object data showing text. The object data included in the character-related image may also include object data showing a design. For example, the object data showing a design is object data showing a pattern such as a frame. The object data included in the character-related image may also include object data showing an effect. For example, the object data showing an effect is object data showing decoration (glitter, etc.), such as object data in the shape of "stars" placed around the character object, or object data in the shape of "droplets" showing tears or sweat.

他オブジェクト選択画面1300は、情報交換画面1100に含まれる追加生成ボタン1102がユーザによって選択されたことに応じて追加生成処理が開始された場合に表示される画面である。例えば、端末装置の表示処理部274は、ユーザによる入力装置24の操作による追加生成ボタン1102の選択に応じて他オブジェクト選択画面1300を表示する。 The other object selection screen 1300 is a screen that is displayed when the additional generation process is started in response to the user selecting the additional generation button 1102 included in the information exchange screen 1100. For example, the display processing unit 274 of the terminal device displays the other object selection screen 1300 in response to the user selecting the additional generation button 1102 by operating the input device 24.

他オブジェクト選択画面1300には、候補表示領域1301と、選択オブジェクト1302、ユーザ選択指示ボタン1303、終了ボタン1304が含まれる。 The other object selection screen 1300 includes a candidate display area 1301, a selection object 1302, a user selection instruction button 1303, and an end button 1304.

候補表示領域1301には、端末記憶装置22に記憶されたキャラクタ関連画像用のオブジェクトデータを示す候補情報が表示される。候補情報は、キャラクタ関連画像用のオブジェクトデータである。図14(a)に示される例では、候補情報として、「OK」という文字を示すオブジェクトデータが候補表示領域1301に表示される。また、図14(a)に示される例では、候補情報として、エフェクトの一種である「漫符(Manpu)」(漫画(Manga)において使用されるマーク、シンボル、又は符号等)を示すオブジェクトデータが候補表示領域1301に表示される。なお、候補情報として、キャラクタ関連画像用のオブジェクトデータを説明する文字情報等が候補表示領域1301に表示されてもよい。例えば、オブジェクトデータが「星」の形状のオブジェクトデータである場合、「星(Star)」という文字が候補表示領域1301に表示されてもよい。 In the candidate display area 1301, candidate information indicating object data for character-related images stored in the terminal storage device 22 is displayed. The candidate information is object data for character-related images. In the example shown in FIG. 14(a), object data indicating the character "OK" is displayed in the candidate display area 1301 as the candidate information. In the example shown in FIG. 14(a), object data indicating "Manpu" (a mark, symbol, or code used in Manga), which is a type of effect, is displayed in the candidate display area 1301 as the candidate information. Note that character information explaining the object data for character-related images may be displayed in the candidate display area 1301 as the candidate information. For example, if the object data is object data in the shape of a "star", the character "Star" may be displayed in the candidate display area 1301.

候補表示領域1301に表示される候補情報は、2種類に限定されず、1種類でも3種類以上でもよい。端末装置2の表示処理部274は、複数種類の候補情報の一部を候補表示領域1301の表示領域内に含めることができない場合、当該複数種類の候補情報をスクロール可能に表示してもよい。この場合、ユーザによるスワイプ操作に応じて、他オブジェクト選択画面1300の候補表示領域1301の表示領域内に現在含まれていない候補情報がスクロールされて、候補表示領域1301の表示領域内に表示されてもよい。 The number of types of candidate information displayed in the candidate display area 1301 is not limited to two, and may be one type or three or more types. When some of the multiple types of candidate information cannot be included within the display area of the candidate display area 1301, the display processing unit 274 of the terminal device 2 may display the multiple types of candidate information in a scrollable manner. In this case, in response to a swipe operation by the user, candidate information that is not currently included within the display area of the candidate display area 1301 of the other object selection screen 1300 may be scrolled and displayed within the display area of the candidate display area 1301.

選択オブジェクト1302は、候補表示領域1301に表示された候補情報の中から一の候補情報を選択するための操作オブジェクトである。図14(a)に示される例では、ユーザの端末装置2の表示処理部274は、各候補情報に対応するチェックボックスオブジェクトを選択オブジェクト1302として表示する。選択オブジェクト1302のそれぞれには、対応する各キャラクタ関連画像用のオブジェクトデータのオブジェクトIDが関連付けられている。 The selection object 1302 is an operation object for selecting one piece of candidate information from the candidate information displayed in the candidate display area 1301. In the example shown in FIG. 14(a), the display processing unit 274 of the user's terminal device 2 displays a check box object corresponding to each piece of candidate information as the selection object 1302. Each of the selection objects 1302 is associated with an object ID of the object data for the corresponding character-related image.

例えば、ユーザの入力装置24の操作によって選択オブジェクト1302が選択されると、選択された選択オブジェクト1302は、「チェック」マークを含む表示となる。この場合、「チェック」マークを含む表示となった選択オブジェクト1302に対応するキャラクタ関連画像用のオブジェクトデータが選択された状態となる。また、「チェック」マークを含む表示となっている選択オブジェクト1302がユーザの入力装置24の操作によって選択されると、選択された選択オブジェクト1302は、「チェック」マークを含まない表示となる。この場合、「チェック」マークを含まない表示となっている選択オブジェクト1302に対応するキャラクタ関連画像用のオブジェクトデータが選択されていない状態となる。このように、ユーザは、一又は複数の選択オブジェクト1302を選択操作することにより、一又は複数のキャラクタ関連画像用のオブジェクトデータを選択することができる。 For example, when a selection object 1302 is selected by the user operating the input device 24, the selected selection object 1302 is displayed with a "check" mark. In this case, the object data for the character-related image corresponding to the selection object 1302 displayed with a "check" mark is in a selected state. Also, when a selection object 1302 displayed with a "check" mark is selected by the user operating the input device 24, the selected selection object 1302 is displayed without a "check" mark. In this case, the object data for the character-related image corresponding to the selection object 1302 displayed without a "check" mark is in a non-selected state. In this way, the user can select one or more object data for character-related images by selecting one or more selection objects 1302.

ユーザ選択指示ボタン1303は、選択された選択オブジェクト1302に対応するオブジェクトデータを、新たなキャラクタ関連画像に含まれるオブジェクトデータとして設定し、ユーザ選択画面1310の表示を指示するためのボタンオブジェクト等である。ユーザによる入力装置24の操作によるユーザ選択指示ボタン1303の選択に応じて、入力装置24は、ユーザ選択指示を端末処理装置27に入力する。端末装置2の表示処理部274は、ユーザ選択指示が入力された場合、選択された選択オブジェクト1302に対応するオブジェクトデータを、新たなキャラクタ関連画像に含まれるオブジェクトデータとして端末記憶装置22に一時的に記憶する。端末装置2の表示処理部274は、他オブジェクト選択画面1300の表示を終了し、ユーザ選択画面1310を表示装置23に表示する。 The user selection instruction button 1303 is a button object or the like for setting object data corresponding to the selected selection object 1302 as object data included in a new character-related image and instructing the display of a user selection screen 1310. In response to the user selecting the user selection instruction button 1303 by operating the input device 24 by the user, the input device 24 inputs a user selection instruction to the terminal processing device 27. When a user selection instruction is input, the display processing unit 274 of the terminal device 2 temporarily stores the object data corresponding to the selected selection object 1302 in the terminal storage device 22 as object data included in a new character-related image. The display processing unit 274 of the terminal device 2 ends the display of the other object selection screen 1300 and displays the user selection screen 1310 on the display device 23.

終了ボタン1304は、他オブジェクト選択画面1300の表示を終了するための操作オブジェクトである。ユーザによる入力装置24の操作によって終了ボタン1304が選択されると、端末装置2の表示処理部274は、他オブジェクト選択画面1300の表示を終了し、情報交換画面1100を表示装置23に表示する。 The end button 1304 is an operation object for ending the display of the other object selection screen 1300. When the end button 1304 is selected by the user operating the input device 24, the display processing unit 274 of the terminal device 2 ends the display of the other object selection screen 1300 and displays the information exchange screen 1100 on the display device 23.

なお、情報交換画面1100に含まれる追加生成ボタン1102がユーザによって選択されたことに応じて、他オブジェクト選択画面1300が表示されなくてもよい。例えば、ユーザによる追加生成ボタン1102の選択に応じて、(他オブジェクト選択画面1300が表示されずに)後述するユーザ選択画面1310が表示されてもよい。また、例えば、ユーザによる追加生成ボタン1102の選択に応じて、(他オブジェクト選択画面1300及びユーザ選択画面1310の両者が表示されずに)後述する追加生成処理が実行されてもよい。他オブジェクト選択画面1300が表示されない場合、後述する追加生成処理において、キャラクタ関連画像用のオブジェクトデータが用いられないキャラクタ関連画像が生成される。または、他オブジェクト選択画面1300が表示されない場合、予め定められたキャラクタ関連画像用のオブジェクトデータが用いられたキャラクタ関連画像が生成されてもよい。また、ユーザ選択画面1310が表示されない場合、後述する追加生成処理において、選択条件を満たす他ユーザが自動的に選択され、当該選択条件を満たす他ユーザのキャラクタオブジェクトが用いられたキャラクタ関連画像が生成されてもよい。なお、選択条件の詳細は後述する。 In addition, the other object selection screen 1300 may not be displayed in response to the user selecting the additional generation button 1102 included in the information exchange screen 1100. For example, in response to the user selecting the additional generation button 1102, a user selection screen 1310 (without displaying the other object selection screen 1300) described later may be displayed. In addition, in response to the user selecting the additional generation button 1102, an additional generation process (without displaying both the other object selection screen 1300 and the user selection screen 1310) described later may be executed. If the other object selection screen 1300 is not displayed, a character-related image that does not use object data for a character-related image is generated in the additional generation process described later. Alternatively, if the other object selection screen 1300 is not displayed, a character-related image that uses predetermined object data for a character-related image may be generated. In addition, if the user selection screen 1310 is not displayed, another user that satisfies the selection conditions may be automatically selected in the additional generation process described later, and a character-related image that uses the character object of the other user that satisfies the selection conditions may be generated. In addition, the selection conditions will be described in detail later.

図14(b)は、ユーザの端末装置2の表示装置23に表示されるユーザ選択画面1310の一例を示す図である。ユーザ選択画面1310は、追加生成処理によって生成される新たなキャラクタ関連画像に含まれるキャラクタオブジェクトによって示される他ユーザを選択するための画面である。ユーザ選択画面1310には、候補表示領域1311、選択オブジェクト1312と、追加生成指示ボタン1313と、終了ボタン1314が含まれる。 Figure 14 (b) is a diagram showing an example of a user selection screen 1310 displayed on the display device 23 of the user's terminal device 2. The user selection screen 1310 is a screen for selecting other users represented by character objects included in a new character-related image generated by the additional generation process. The user selection screen 1310 includes a candidate display area 1311, a selection object 1312, an additional generation instruction button 1313, and an end button 1314.

候補表示領域1311には、ユーザが所属する情報交換グループに所属している他ユーザのうちの情報交換画面1000を現在表示している端末装置2の他ユーザを示す情報が表示される。候補表示領域1311には、ユーザが所属する情報交換グループに所属する全ての他ユーザを示す情報が表示されてもよい。ユーザが所属する情報交換グループとは、追加生成処理を開始するためにユーザが選択操作した情報交換画面1100に係る情報交換グループである。このように、一の情報交換グループに所属する一のユーザの端末装置2に表示された、当該一の情報交換グループに係る情報交換画面1100において、一のユーザによって追加生成ボタン1102が選択された場合、当該一のユーザの端末装置2は、一の情報交換グループに所属する他ユーザを示すキャラクタオブジェクトを含む新たなキャラクタ関連画像を生成することができる。図14(b)に示される例では、ユーザの端末装置2の表示処理部274は、他ユーザのキャラクタオブジェクトのそれぞれサムネイル画像及び名称を、他ユーザを示す情報として候補表示領域1311に表示する。 The candidate display area 1311 displays information indicating other users of the terminal device 2 currently displaying the information exchange screen 1000 among other users who belong to the information exchange group to which the user belongs. The candidate display area 1311 may display information indicating all other users who belong to the information exchange group to which the user belongs. The information exchange group to which the user belongs is the information exchange group related to the information exchange screen 1100 selected by the user to start the additional generation process. In this way, when the additional generation button 1102 is selected by a user on the information exchange screen 1100 related to an information exchange group displayed on the terminal device 2 of a user who belongs to an information exchange group, the terminal device 2 of the user can generate a new character-related image including a character object indicating another user who belongs to the information exchange group. In the example shown in FIG. 14(b), the display processing unit 274 of the user's terminal device 2 displays thumbnail images and names of the character objects of the other users in the candidate display area 1311 as information indicating the other users.

選択オブジェクト1312は、候補表示領域1311に表示された他ユーザを示す情報の中から一又は複数の他ユーザを示す情報を選択するための操作オブジェクトである。図14(b)に示される例では、ユーザの端末装置2の表示処理部274は、各他ユーザを示す情報に対応するチェックボックスオブジェクトを選択オブジェクト1312として表示する。選択オブジェクト1312のそれぞれには、対応する各他ユーザのユーザIDが関連付けられている。 The selection object 1312 is an operation object for selecting information indicating one or more other users from the information indicating other users displayed in the candidate display area 1311. In the example shown in FIG. 14(b), the display processing unit 274 of the user's terminal device 2 displays check box objects corresponding to the information indicating each other user as the selection object 1312. Each of the selection objects 1312 is associated with the user ID of the corresponding other user.

例えば、ユーザの入力装置24の操作によって選択オブジェクト1312が選択されると、選択された選択オブジェクト1312は、「チェック」マークを含む表示となる。この場合、「チェック」マークを含む表示となった選択オブジェクト1312に対応する他ユーザが選択された状態となる。また、「チェック」マークを含む表示となっている選択オブジェクト1312がユーザの入力装置24の操作によって選択されると、選択された選択オブジェクト1312は、「チェック」マークを含まない表示となる。この場合、「チェック」マークを含まない表示となっている選択オブジェクト1312に対応する他ユーザが選択されていない状態となる。このように、ユーザは、一又は複数の選択オブジェクト1312を選択操作することにより、一又は複数の他ユーザを選択することができる。 For example, when a selection object 1312 is selected by the user operating the input device 24, the selected selection object 1312 is displayed with a "check" mark. In this case, the other user corresponding to the selection object 1312 displayed with a "check" mark is in a selected state. Also, when a selection object 1312 displayed with a "check" mark is selected by the user operating the input device 24, the selected selection object 1312 is displayed without a "check" mark. In this case, the other user corresponding to the selection object 1312 displayed without a "check" mark is not in a selected state. In this way, the user can select one or more other users by selecting one or more selection objects 1312.

追加生成指示ボタン1313は、新たなキャラクタ関連画像を生成する追加生成指示を入力するための操作オブジェクトの一例である。例えば、ユーザによる入力装置24の操作に応じて追加生成指示ボタン1313が選択された場合、入力装置24は、生成部271に追加生成指示を入力し、表示処理部274は、ユーザ選択画面1310の表示を終了する。 The additional generation instruction button 1313 is an example of an operation object for inputting an additional generation instruction to generate a new character-related image. For example, when the additional generation instruction button 1313 is selected in response to a user's operation of the input device 24, the input device 24 inputs an additional generation instruction to the generation unit 271, and the display processing unit 274 ends the display of the user selection screen 1310.

生成部271は、入力装置24からの追加生成指示を取得すると、他オブジェクト選択画面1300においてユーザによるユーザ選択指示ボタン1303の選択に応じて一時的に記憶されたオブジェクトデータを端末記憶装置22から取得する。次に、生成部271は、ユーザ選択画面1310においてユーザによって選択された選択オブジェクト1312に対応する他ユーザのユーザIDを取得する。 When the generation unit 271 receives an additional generation instruction from the input device 24, it acquires from the terminal storage device 22 the object data that was temporarily stored in response to the user's selection of the user selection instruction button 1303 on the other object selection screen 1300. Next, the generation unit 271 acquires the user ID of the other user that corresponds to the selected object 1312 selected by the user on the user selection screen 1310.

次に、生成部271は、取得された(キャラクタ関連画像用の)オブジェクトデータ及び他ユーザのユーザIDに基づいて新たなキャラクタ関連画像を生成する追加生成処理を実行する。以下、新たなキャラクタ関連画像を生成する追加生成処理の一例について説明する。 Next, the generation unit 271 executes an additional generation process to generate a new character-related image based on the acquired object data (for the character-related image) and the user ID of the other user. An example of the additional generation process to generate a new character-related image is described below.

まず、生成部271は、端末記憶装置22に記憶されたユーザIDに関連付けられた、ユーザのキャラクタオブジェクトのモデルIDと、使用オブジェクトのオブジェクトIDとをユーザテーブルT1から抽出する。次に、生成部271は、抽出したモデルIDに関連付けられたユーザのキャラクタオブジェクトのモデルデータと、抽出した(ユーザのキャラクタオブジェクトの)使用オブジェクトのオブジェクトIDに関連付けられた画像情報及び配置箇所を端末記憶装置22から読み出す。次に、生成部271は、取得された他ユーザのユーザIDに関連付けられた、他ユーザのキャラクタオブジェクトのモデルIDと、使用オブジェクトのオブジェクトIDとをユーザテーブルT1から抽出する。次に、生成部271は、抽出したモデルIDに関連付けられた他ユーザのキャラクタオブジェクトのモデルデータと、抽出した(他ユーザのキャラクタオブジェクトの)使用オブジェクトのオブジェクトIDに関連付けられた画像情報及び配置箇所を端末記憶装置22から読み出す。 First, the generation unit 271 extracts the model ID of the user's character object and the object ID of the used object associated with the user ID stored in the terminal storage device 22 from the user table T1. Next, the generation unit 271 reads out from the terminal storage device 22 the model data of the user's character object associated with the extracted model ID, and the image information and placement location associated with the extracted object ID of the used object (of the user's character object). Next, the generation unit 271 extracts from the user table T1 the model ID of the other user's character object and the object ID of the used object associated with the acquired user ID of the other user. Next, the generation unit 271 reads out from the terminal storage device 22 the model data of the other user's character object associated with the extracted model ID, and the image information and placement location associated with the extracted object ID of the used object (of the other user's character object).

次に、生成部271は、画像定義情報を端末記憶装置22から読み出す。画像定義情報には、新たなキャラクタ関連画像に含まれるキャラクタオブジェクトのモーションデータ、キャラクタオブジェクトの位置、キャラクタ関連画像用のオブジェクトデータの位置、及び/又は、視点位置等が含まれる。端末記憶装置22には、新たなキャラクタ関連画像に含まれるキャラクタオブジェクトの数ごとに、複数の画像定義情報が記憶されている。 Next, the generation unit 271 reads image definition information from the terminal storage device 22. The image definition information includes motion data of the character object included in the new character-related image, the position of the character object, the position of the object data for the character-related image, and/or the viewpoint position. The terminal storage device 22 stores multiple pieces of image definition information for each number of character objects included in the new character-related image.

まず、新たなキャラクタ関連画像に含まれるキャラクタオブジェクトの数が「2」である場合(ユーザのキャラクタオブジェクト及び他ユーザのキャラクタオブジェクト1体)の画像定義情報の一例について説明する。この画像定義情報には、ユーザのキャラクタオブジェクトのモーションデータと、1体の他ユーザのキャラクタオブジェクトのモーションデータと含まれる。モーションデータは、所定の動作期間(例えば3秒間)において、キャラクタオブジェクトに所定の動作をさせるための時系列のモーションデータでもよい。また、この画像定義情報には、ユーザのキャラクタオブジェクトの位置及び正面の向き、他ユーザのキャラクタオブジェクトの位置及び正面の向き、並びに、視点の位置及び視線方向、を示す情報が記憶される。キャラクタオブジェクトの位置及び視点の位置は、仮想の3次元空間内の3次元座標によって表される。また、キャラクタオブジェクトの向き及び視線方向は、仮想の3次元空間内における単位ベクトル等によって表される。例えば、視点の位置から視線方向を見た場合において、左側に、第1ポーズ(記憶されたモーションデータに基づくポーズ)のユーザのキャラクタオブジェクトの正面が表示され、右側に、第2ポーズ(記憶されたモーションデータに基づくポーズ)の他ユーザのキャラクタオブジェクトの正面が見えるように定義された画像定義情報が記憶される。同じ画像定義情報が用いられる場合、キャラクタ関連画像に含まれるキャラクタオブジェクトとして、いずれの他ユーザのキャラクタオブジェクトが選択されたとしても、同一の第2ポーズのキャラクタオブジェクトがキャラクタ関連画像に含まれる。 First, an example of image definition information in the case where the number of character objects included in the new character-related image is "2" (the user's character object and one character object of another user) will be described. This image definition information includes motion data of the user's character object and motion data of one character object of another user. The motion data may be time-series motion data for making the character object perform a predetermined motion during a predetermined motion period (e.g., 3 seconds). In addition, this image definition information stores information indicating the position and front direction of the user's character object, the position and front direction of the other user's character object, and the position and line of sight of the viewpoint. The position of the character object and the position of the line of sight are represented by three-dimensional coordinates in a virtual three-dimensional space. In addition, the direction and line of sight of the character object are represented by a unit vector or the like in the virtual three-dimensional space. For example, when looking in the line of sight from the position of the viewpoint, image definition information is stored so that the front of the user's character object in the first pose (a pose based on the stored motion data) is displayed on the left, and the front of the other user's character object in the second pose (a pose based on the stored motion data) is displayed on the right. When the same image definition information is used, no matter which other user's character object is selected as the character object included in the character-related image, the character object in the same second pose will be included in the character-related image.

また、新たなキャラクタ関連画像に含まれるキャラクタオブジェクトの数が「3」である場合(ユーザのキャラクタオブジェクト及び他ユーザのキャラクタオブジェクト2体)の画像定義情報の一例について説明する。この画像定義情報には、ユーザのキャラクタオブジェクトのモーションデータと、2体の他ユーザのキャラクタオブジェクトのモーションデータと含まれる。また、この画像定義情報には、ユーザのキャラクタオブジェクトの位置及び正面の向き、2体の他ユーザのキャラクタオブジェクトのそれぞれ位置及び正面の向き、並びに、視点の位置及び視線方向、を示す情報が記憶される。例えば、視点の位置から視線方向を見た場合において、左側に、第3ポーズ(記憶されたモーションデータに基づくポーズ)の1人目の他ユーザのキャラクタオブジェクトの正面が表示され、真ん中に、第4ポーズ(記憶されたモーションデータに基づくポーズ)のユーザのキャラクタオブジェクトの正面が表示され、右側に、2人目の第5ポーズ(記憶されたモーションデータに基づくポーズ)の他ユーザのキャラクタオブジェクトの正面が見えるように定義された画像定義情報が記憶される。同じ画像定義情報が用いられる場合、左側に位置する1人目のキャラクタオブジェクトとして、いずれの他ユーザのキャラクタオブジェクトが選択されたとしても、同一の第3ポーズのキャラクタオブジェクトがキャラクタ関連画像に含まれる。同様に、右側に位置する2人目のキャラクタオブジェクトとして、いずれの他ユーザのキャラクタオブジェクトが選択されたとしても、同一の第5ポーズのキャラクタオブジェクトがキャラクタ関連画像に含まれる。なお、新たなキャラクタ関連画像に含まれるキャラクタオブジェクトの数は、「2」及び「3」に限定されず「4」以上の数でもよい。 In addition, an example of image definition information in the case where the number of character objects included in the new character-related image is "3" (the user's character object and two other users' character objects) will be described. This image definition information includes motion data of the user's character object and motion data of the two other users' character objects. This image definition information also stores information indicating the position and front direction of the user's character object, the positions and front directions of the two other users' character objects, and the position and line of sight of the viewpoint. For example, when looking in the line of sight from the viewpoint position, the front of the first other user's character object in the third pose (a pose based on the stored motion data) is displayed on the left, the front of the user's character object in the fourth pose (a pose based on the stored motion data) is displayed in the middle, and the front of the second other user's character object in the fifth pose (a pose based on the stored motion data) is displayed on the right. When the same image definition information is used, no matter which other user's character object is selected as the first character object located on the left, the same character object in the third pose is included in the character-related image. Similarly, no matter which other user's character object is selected as the second character object located on the right side, the same character object in the fifth pose will be included in the character-related image. Note that the number of character objects included in the new character-related image is not limited to "2" or "3" and may be "4" or more.

なお、上述の実施形態の説明において、「ポーズ」について、「第1」ポーズ、「第2」ポーズ、「第3」ポーズ、「第4」ポーズ及び「第5」ポーズと称したが、これら、「第1」、「第2」、「第3」、「第4」及び「第5」は、順番を示すものでもなく、各ポーズが互いに異なることを規定するものでもない。すなわち、「第1」ポーズ、「第2」ポーズ、「第3」ポーズ、「第4」ポーズ及び「第5」ポーズは、互いに異なるポーズでもよく、又は、これらのうちの少なくとも一部は同一のポーズでもよい。また、特許請求の範囲において、上述の「第1」ポーズは、他の名称(例えば、「第2」ポーズ~「第5」ポーズのいずれか。)で称されてもよく、同様に、「第2」ポーズ、「第3」ポーズ、「第4」ポーズ及び「第5」ポーズも他の名称で称されてもよい。すなわち、特許請求の範囲に記載された「第1」ポーズという用語は、「2体のキャラクタオブジェクトが含まれるキャラクタ関連画像におけるユーザのキャラクタオブジェクトのポーズ」であると限定して解釈されず、特許請求の範囲の記載を合理的に解釈して理解されるべきものである。「第2」ポーズ、「第3」ポーズ、「第4」ポーズ及び「第5」ポーズの各用語も同様に、上述の実施形態のものに限定して解釈されず、特許請求の範囲の記載を合理的に解釈して理解されるべきものである。 In the above description of the embodiment, the "poses" are referred to as the "first", "second", "third", "fourth" and "fifth" poses, but these "first", "second", "third", "fourth" and "fifth" do not indicate an order, nor do they specify that the poses are different from each other. In other words, the "first", "second", "third", "fourth" and "fifth" poses may be different from each other, or at least some of them may be the same pose. In addition, in the claims, the above-mentioned "first" pose may be referred to by other names (for example, any of the "second" to "fifth" poses), and similarly, the "second", "third", "fourth" and "fifth" poses may be referred to by other names. In other words, the term "first" pose described in the claims should not be interpreted as being limited to "the pose of the user's character object in a character-related image including two character objects", but should be understood by interpreting the claims in a reasonable manner. Similarly, the terms "second" pose, "third" pose, "fourth" pose, and "fifth" pose should not be interpreted as being limited to the above-mentioned embodiments, but should be understood through a reasonable interpretation of the claims.

ユーザのキャラクタオブジェクト用の画像定義情報及び/又は他ユーザのキャラクタオブジェクト用の画像定義情報は、端末記憶装置22に複数種類記憶されてもよい。ユーザのキャラクタオブジェクト用の画像定義情報及び他ユーザのキャラクタオブジェクト用の画像定義情報を、キャラクタオブジェクト用の画像定義情報と総称する場合がある。例えば、キャラクタ関連画像用のモーションデータとして、キャラクタオブジェクトのパラメータごとに異なる種類のモーションデータが記憶されてもよい。パラメータは、性別(女性型、男性型等)、サイズ(身長が所定値以上、所定値未満等)、性格(穏やか、活気がある等)、年齢(30歳以上、30歳未満等)等を含む。例えば、ユーザのキャラクタオブジェクト用の画像定義情報として、キャラクタオブジェクトが女性型である場合に適用されるキャラクタ関連画像用のモーションデータMFが記憶され、キャラクタオブジェクトが男性型である場合に適用されるキャラクタ関連画像用のモーションデータMMが記憶される。また例えば、キャラクタオブジェクトが所定値以上の身長である場合に適用されるキャラクタ関連画像用のモーションデータMTが記憶され、キャラクタオブジェクトが所定値未満の身長である場合に適用されるキャラクタ関連画像用のモーションデータMSが記憶される。また、例えば、ユーザのキャラクタオブジェクト用の画像定義情報として、キャラクタオブジェクトが女性型であり且つ所定値未満の身長である場合に適用されるキャラクタ関連画像用のモーションデータMFSが記憶され、キャラクタオブジェクトが男性型である場合に適用され且つ所定値以上の身長である場合にキャラクタ関連画像用のモーションデータMMTが記憶されてもよい。 A plurality of types of image definition information for the user's character object and/or image definition information for the character object of another user may be stored in the terminal storage device 22. The image definition information for the user's character object and the image definition information for the character object of another user may be collectively referred to as image definition information for the character object. For example, different types of motion data may be stored for each parameter of the character object as motion data for the character-related image. The parameters include gender (female type, male type, etc.), size (height is equal to or greater than a predetermined value, less than a predetermined value, etc.), personality (calm, lively, etc.), age (30 years or older, less than 30 years old, etc.), etc. For example, as image definition information for the user's character object, motion data MF for the character-related image applied when the character object is a female type is stored, and motion data MM for the character-related image applied when the character object is a male type is stored. Also, for example, motion data MT for the character-related image applied when the character object is equal to or greater than a predetermined value is stored, and motion data MS for the character-related image applied when the character object is less than a predetermined value is stored. Also, for example, as image definition information for a user's character object, motion data MFS for character-related images that is applied when the character object is female and has a height less than a predetermined value may be stored, and motion data MMT for character-related images that is applied when the character object is male and has a height equal to or greater than a predetermined value may be stored.

次に、生成部271は、抽出された各モデルデータと、各使用オブジェクトの画像情報及び配置箇所と、画像定義情報、及び、取得された(キャラクタ関連画像用の)オブジェクトデータとに基づいて、所定の動作及び表情のユーザのキャラクタオブジェクトと、背景、文字等のオブジェクトデータとを含む新たなキャラクタ関連画像を生成する。次に、生成部271は、生成した新たなキャラクタ関連画像に、当該キャラクタ関連画像を一意に識別するための関連画像IDを関連付けて端末記憶装置22に記憶する。また、生成部271は、生成した新たなキャラクタ関連画像を示す候補情報を生成し、生成した候補情報に、当該キャラクタ関連画像を識別するための関連画像IDを関連付けて端末記憶装置22に記憶する。そして、生成部271は、新たなキャラクタ関連画像の生成時における使用オブジェクトのオブジェクトIDを関連画像IDに関連付けて端末記憶装置22に記憶し、新たなキャラクタ関連画像の追加生成処理が終了する。なお、生成された新たなキャラクタ関連画像の一部又は全部は、情報交換サービスにおいて使用できないように設定されてもよい。この場合、情報交換サービスにおいて使用可能なキャラクタ関連画像によって構成される使用可能グループが設定されてもよい。そして、情報交換サービスにおいて使用可能な新たなキャラクタ関連画像が生成されると、当該新たなキャラクタ関連画像は使用可能グループに含まれるように設定される。 Next, the generating unit 271 generates a new character-related image including a character object of the user with a predetermined action and expression, and object data such as a background and characters, based on each extracted model data, the image information and arrangement location of each used object, the image definition information, and the acquired object data (for the character-related image). Next, the generating unit 271 associates a related image ID for uniquely identifying the generated new character-related image with the generated new character-related image and stores the associated image ID in the terminal storage device 22. The generating unit 271 also generates candidate information indicating the generated new character-related image, associates the associated image ID for identifying the generated character-related image with the generated candidate information and stores the associated image ID in the terminal storage device 22. Then, the generating unit 271 associates the object ID of the used object at the time of generating the new character-related image with the related image ID and stores the additional generation process of the new character-related image in the terminal storage device 22, and the additional generation process of the new character-related image is completed. Note that some or all of the generated new character-related image may be set to be unusable in the information exchange service. In this case, a usable group consisting of character-related images that can be used in the information exchange service may be set. Then, when a new character-related image that can be used in the information exchange service is generated, the new character-related image is set to be included in the usable group.

新たな追加生成処理の終了に応じて、追加生成処理を実行した端末装置2の送信部272は、新たなキャラクタ関連画像の送信処理を実行する。これにより、新たなキャラクタ関連画像が、追加生成処理を実行した端末装置2のユーザが所属する情報交換グループに所属する他のユーザの端末装置2に、サーバ装置3を経由して送信される。また、新たな追加生成処理の終了に応じて、追加生成処理を実行した端末装置2の表示処理部274は、情報交換画面1400の表示処理を実行する。 In response to the end of the new additional generation process, the transmission unit 272 of the terminal device 2 that executed the additional generation process executes a transmission process of the new character-related image. As a result, the new character-related image is transmitted via the server device 3 to the terminal devices 2 of other users who belong to the information exchange group to which the user of the terminal device 2 that executed the additional generation process belongs. In addition, in response to the end of the new additional generation process, the display processing unit 274 of the terminal device 2 that executed the additional generation process executes a display process of the information exchange screen 1400.

終了ボタン1314は、ユーザ選択画面1310の表示を終了するための操作オブジェクトである。ユーザによる入力装置24の操作によって終了ボタン1314が選択されると、端末装置2の表示処理部274は、ユーザ選択画面1310の表示を終了する。 The end button 1314 is an operation object for ending the display of the user selection screen 1310. When the end button 1314 is selected by the user operating the input device 24, the display processing unit 274 of the terminal device 2 ends the display of the user selection screen 1310.

なお、他オブジェクト選択画面1300に含まれるユーザ選択指示ボタン1303がユーザによって選択されたことに応じて、ユーザ選択画面1310が表示されなくてもよい。例えば、ユーザによるユーザ選択指示ボタン1303の選択に応じて、(ユーザ選択画面1310が表示されずに)追加生成処理が実行されてもよい。ユーザ選択画面1310が表示されない場合、追加生成処理において、選択条件を満たす他ユーザが自動的に選択され、当該選択条件を満たす他ユーザのキャラクタオブジェクトが用いられたキャラクタ関連画像が生成されてもよい。以下、追加生成処理を開始するためにユーザが選択操作した情報交換画面1100に係る情報交換グループを、単に「情報交換グループ」と称し、この「情報交換グループ」に所属する、ユーザ(情報交換画面1100を選択操作したユーザ)以外のユーザを、単に「他ユーザ」と称する場合がある。 Note that the user selection screen 1310 may not be displayed in response to the user selecting the user selection instruction button 1303 included in the other object selection screen 1300 being selected by the user. For example, the additional generation process may be executed (without displaying the user selection screen 1310) in response to the user selecting the user selection instruction button 1303. If the user selection screen 1310 is not displayed, other users who satisfy the selection conditions may be automatically selected in the additional generation process, and a character-related image may be generated using the character objects of other users who satisfy the selection conditions. Hereinafter, the information exchange group related to the information exchange screen 1100 selected by the user to start the additional generation process may be simply referred to as the "information exchange group", and users other than the user (the user who selected the information exchange screen 1100) who belong to this "information exchange group" may be simply referred to as the "other users".

選択条件は、他ユーザの情報交換サービスの利用状況に関する条件である。以下、他ユーザの情報交換サービスの利用状況に関する選択条件を満たす他ユーザの判定処理の一例について説明する。まず、他ユーザの端末装置2は、サーバ装置3を経由して、他ユーザの入力情報及びユーザIDを、送信日時とともにユーザの端末装置2に送信する。ユーザの端末装置2は、受信した他ユーザの入力情報及びユーザIDを送信日時とともに端末記憶装置22に記憶する。生成部271は、情報交換グループに所属する各他ユーザが情報交換グループ内の情報交換において直近に送信した入力情報を、送信日時が現時点から近い順に並べ、送信日時が現時点に最も近い一又は複数の入力情報を特定する。そして、生成部271は、判定された一又は複数の入力情報のそれぞれを送信した他ユーザを、選択条件を満たす他ユーザとして判定する。例えば、他ユーザが4人(それぞれ、他ユーザU1、他ユーザU2、他ユーザU3、他ユーザU4と称する。)であり、且つ、他ユーザU1、他ユーザU2、他ユーザU3、他ユーザU4のそれぞれが直近に送信した入力情報の送信日時が、2022年3月24日10:55、2022年3月23日23:03、2022年3月24日11:21、2022年3月24日07:13である場合、生成部271は、入力情報の送信日時が最も現時点に近い2人の他ユーザU3及び他ユーザU1を、選択条件を満たす他ユーザとして判定する。これにより、生成部271は、情報交換グループに係る情報交換において、入力情報(テキスト情報、スタンプ画像等)を直近に送信した他ユーザのキャラクタオブジェクトを含むキャラクタ関連画像を自動的に生成することが可能となる。他ユーザが送信した入力情報には、公知の「リアクションスタンプ」が含まれてもよい。生成部271によって判定される、選択条件を満たす他ユーザの数は、「2」に限定されない。選択条件を満たす他ユーザの数は、「1」でもよく、又は、「3」以上でもよい。また、選択条件を満たす他ユーザの数は、後述する他ユーザ設定数UAでもよい。なお、上述の実施形態において、送信日時に替えて、ユーザの端末装置2が、他ユーザの入力情報及びユーザIDを受信した受信日時が用いられてもよい。 The selection condition is a condition related to the usage status of the information exchange service of other users. An example of a process for determining other users who satisfy the selection condition related to the usage status of the information exchange service of other users will be described below. First, the terminal device 2 of the other user transmits the input information and user ID of the other user to the user's terminal device 2 together with the transmission date and time via the server device 3. The user's terminal device 2 stores the received input information and user ID of the other user together with the transmission date and time in the terminal storage device 22. The generation unit 271 arranges the input information most recently transmitted by each other user belonging to the information exchange group in the information exchange within the information exchange group in order of the transmission date and time from the current time, and identifies one or more pieces of input information whose transmission date and time are closest to the current time. Then, the generation unit 271 determines the other users who transmitted each of the one or more pieces of input information determined to be other users who satisfy the selection condition. For example, if there are four other users (referred to as other user U1, other user U2, other user U3, and other user U4, respectively), and the transmission dates and times of the input information most recently transmitted by other user U1, other user U2, other user U3, and other user U4 are 10:55 on March 24, 2022, 23:03 on March 23, 2022, 11:21 on March 24, 2022, and 07:13 on March 24, 2022, the generation unit 271 determines that the two other users U3 and U1, whose transmission dates and times of the input information are closest to the current time, are other users who satisfy the selection condition. This makes it possible for the generation unit 271 to automatically generate a character-related image including a character object of the other user who most recently transmitted input information (text information, stamp image, etc.) in the information exchange related to the information exchange group. The input information transmitted by the other users may include a known "reaction stamp". The number of other users that satisfy the selection conditions determined by the generation unit 271 is not limited to "2". The number of other users that satisfy the selection conditions may be "1", or may be "3" or more. The number of other users that satisfy the selection conditions may be the other user setting number UA described below. Note that in the above embodiment, the reception date and time at which the user's terminal device 2 receives the input information and user ID of the other user may be used instead of the transmission date and time.

以下、他ユーザの情報交換サービスの利用状況に関する選択条件を満たす他ユーザの判定処理の他の一例について説明する。まず、他ユーザの端末装置2は、他ユーザの端末装置2が情報交換グループ内の情報交換を開始するために情報交換画面の表示を開始するたびに、情報交換画面の表示開始時を、サーバ装置3を経由してユーザの端末装置2に送信する。ユーザの端末装置2は、受信した他ユーザの情報交換画面の表示開始時を端末記憶装置22に記憶する。生成部271は、情報交換グループに所属する各他ユーザの端末装置2が情報交換グループ内の情報交換を開始するために直近に表示した情報交換画面の表示開始時が現時点に最も近い一又は複数の端末装置2を操作する他ユーザを判定する。そして、生成部271は、判定された一又は複数の他ユーザを、選択条件を満たす他ユーザとして判定する。例えば、他ユーザが4人(それぞれ、他ユーザU1、他ユーザU2、他ユーザU3、他ユーザU4と称する。)であり、且つ、他ユーザU1、他ユーザU2、他ユーザU3、他ユーザU4のそれぞれが直近に情報交換グループに係る情報交換画面を表示した表示日時が、2022年3月23日21:10、2022年3月23日23:00、2022年3月23日22:17、2022年3月23日05:55である場合、生成部271は、情報交換画面の表示開始時が最も現時点に近い2人の他ユーザU2及び他ユーザU3を、選択条件を満たす他ユーザとして判定する。これにより、生成部271は、情報交換グループに係る情報交換を、直近に開始した他ユーザのキャラクタオブジェクトを含むキャラクタ関連画像を自動的に生成することが可能となる。選択条件を満たす他ユーザの数は、「2」に限定されない。選択条件を満たす他ユーザの数は、「1」でもよく、又は、「3」以上でもよい。また、選択条件を満たす他ユーザの数は、後述する他ユーザ設定数UAでもよい。 Below, another example of the process of determining other users who satisfy the selection condition regarding the usage status of the information exchange service of other users will be described. First, each time the terminal device 2 of the other user starts displaying the information exchange screen to start information exchange within the information exchange group, the terminal device 2 of the other user transmits the display start time of the information exchange screen to the terminal device 2 of the user via the server device 3. The terminal device 2 of the user stores the received display start time of the information exchange screen of the other user in the terminal storage device 22. The generation unit 271 determines other users who operate one or more terminal devices 2 whose display start time of the information exchange screen most recently displayed by the terminal device 2 of each other user belonging to the information exchange group to start information exchange within the information exchange group is closest to the current time. Then, the generation unit 271 determines the determined one or more other users as other users who satisfy the selection condition. For example, if there are four other users (referred to as other user U1, other user U2, other user U3, and other user U4, respectively), and the display dates and times when other user U1, other user U2, other user U3, and other user U4 most recently displayed the information exchange screen related to the information exchange group are 21:10 on March 23, 2022, 23:00 on March 23, 2022, 22:17 on March 23, 2022, and 05:55 on March 23, 2022, the generation unit 271 determines that the two other users U2 and U3, whose information exchange screen display start times are closest to the current time, are other users who satisfy the selection conditions. This makes it possible for the generation unit 271 to automatically generate a character-related image including a character object of the other user who most recently started information exchange related to the information exchange group. The number of other users who satisfy the selection conditions is not limited to "2". The number of other users who satisfy the selection conditions may be "1" or may be "3" or more. Additionally, the number of other users who satisfy the selection conditions may be the other user setting number UA, which will be described later.

以下、他ユーザの情報交換サービスの利用状況に関する選択条件を満たす他ユーザの判定処理の他の一例について説明する。まず、他ユーザの端末装置2は、他ユーザの端末装置2が情報交換グループ内の情報交換を開始するために情報交換サービスにログインするたびに、情報交換サービスのログイン日時を、サーバ装置3を経由してユーザの端末装置2に送信する。ユーザの端末装置2は、受信した他ユーザの情報交換サービスのログイン日時を端末記憶装置22に記憶する。生成部271は、情報交換グループに所属する各他ユーザが、情報交換グループ内の情報交換を開始するために、情報交換サービスに直近にログインしたログイン日時が現時点に最も近い一又は複数の端末装置2を操作する他ユーザを判定する。そして、生成部271は、判定された一又は複数の他ユーザを、選択条件を満たす他ユーザとして判定する。例えば、他ユーザが4人(それぞれ、他ユーザU1、他ユーザU2、他ユーザU3、他ユーザU4と称する。)であり、且つ、他ユーザU1、他ユーザU2、他ユーザU3、他ユーザU4のそれぞれが直近に情報交換サービスにログインしたログイン日時が、2022年3月23日21:10、2022年3月23日23:00、2022年3月23日22:17、2022年3月23日05:55である場合、生成部271は、最も現時点に近い2人の他ユーザU2及び他ユーザU3を、選択条件を満たす他ユーザとして判定する。これにより、生成部271は、情報交換グループに係る情報交換を、直近に開始した他ユーザのキャラクタオブジェクトを含むキャラクタ関連画像を自動的に生成することが可能となる。選択条件を満たす他ユーザの数は、「2」に限定されない。選択条件を満たす他ユーザの数は、「1」でもよく、又は、「3」以上でもよい。また、選択条件を満たす他ユーザの数は、後述する他ユーザ設定数UAでもよい。 Below, another example of the process of determining other users who satisfy the selection condition regarding the usage status of the information exchange service of other users will be described. First, each time the other user's terminal device 2 logs in to the information exchange service to start information exchange within the information exchange group, the other user's terminal device 2 transmits the login date and time of the information exchange service to the user's terminal device 2 via the server device 3. The user's terminal device 2 stores the received login date and time of the information exchange service of the other user in the terminal storage device 22. The generation unit 271 determines other users who operate one or more terminal devices 2 whose login date and time when each other user belonging to the information exchange group most recently logged in to the information exchange service to start information exchange within the information exchange group is closest to the current time. Then, the generation unit 271 determines the determined one or more other users as other users who satisfy the selection condition. For example, if there are four other users (referred to as other user U1, other user U2, other user U3, and other user U4, respectively), and the login dates and times when other user U1, other user U2, other user U3, and other user U4 most recently logged in to the information exchange service are 21:10 on March 23, 2022, 23:00 on March 23, 2022, 22:17 on March 23, 2022, and 05:55 on March 23, 2022, the generation unit 271 determines that the two other users U2 and U3, who are closest to the current time, are other users who satisfy the selection condition. This makes it possible for the generation unit 271 to automatically generate a character-related image including a character object of the other user who most recently started information exchange related to the information exchange group. The number of other users who satisfy the selection condition is not limited to "2". The number of other users who satisfy the selection condition may be "1" or may be "3" or more. Additionally, the number of other users who satisfy the selection conditions may be the other user setting number UA, which will be described later.

キャラクタ関連画像に含まれる他ユーザの数を示す他ユーザ設定数UAは、予め設定されたものでも、自動的に設定されたものでもよい。例えば、選択条件を満たす他ユーザの判定処理において、端末記憶装置22に記憶された他ユーザ設定数UAが用いられてもよい。また、選択条件を満たす他ユーザの判定処理において、端末処理装置27によってランダムに設定された他ユーザ設定数UAが用いられてもよい。また、キャラクタ関連画像用のオブジェクトデータに他ユーザ設定数UAが関連付けて記憶されている場合、他オブジェクト選択画面1300に対するユーザの操作に応じて取得された(キャラクタ関連画像用の)オブジェクトデータに関連付けられた他ユーザ設定数UAが、選択条件を満たす他ユーザの判定処理において自動的に用いられてもよい。 The other user set number UA, which indicates the number of other users included in the character-related image, may be preset or automatically set. For example, the other user set number UA stored in the terminal storage device 22 may be used in the process of determining other users who satisfy the selection conditions. Also, the other user set number UA randomly set by the terminal processing device 27 may be used in the process of determining other users who satisfy the selection conditions. Also, if the other user set number UA is stored in association with the object data for the character-related image, the other user set number UA associated with the object data (for the character-related image) acquired in response to the user's operation on the other object selection screen 1300 may be automatically used in the process of determining other users who satisfy the selection conditions.

選択条件は、ユーザと他ユーザとの関係に関する条件でもよい。以下、ユーザと他ユーザとの関係に関する選択条件を満たす他ユーザの判定処理の一例について説明する。まず、生成部271は、所属ユーザがユーザと一人の他ユーザのみである情報交換グループがグループテーブルT3に記憶されているか否かを判定する。生成部271は、所属ユーザがユーザと一人の他ユーザのみである情報交換グループがグループテーブルT3に記憶されている場合、所属ユーザがユーザと一人の他ユーザのみである情報交換グループに所属する他ユーザを抽出する。そして、生成部271は、抽出された他ユーザが情報交換グループ(追加生成処理を開始するためにユーザが選択操作した情報交換画面1100に係る情報交換グループ)の所属ユーザである場合、当該抽出された他ユーザを、選択条件を満たす他ユーザとして判定する。これにより、生成部271は、ユーザと一対一の情報交換をしたことがある他ユーザのキャラクタオブジェクトを含むキャラクタ関連画像を自動的に生成することが可能となる。なお、ユーザと一対一の情報交換をしたことがある他ユーザは、情報交換サービス以外の他のSNSサービスにおけるチャット機能等において、ユーザと一対一の情報交換をしたことがある他ユーザであってもよい。 The selection condition may be a condition related to the relationship between the user and the other user. An example of a process for determining a user who satisfies a selection condition related to the relationship between the user and the other user will be described below. First, the generation unit 271 determines whether an information exchange group in which the user and one other user are the only users is stored in the group table T3. When an information exchange group in which the user and one other user are the only users is stored in the group table T3, the generation unit 271 extracts other users who belong to the information exchange group in which the user and one other user are the only users. Then, when the extracted other user is a user who belongs to an information exchange group (an information exchange group related to the information exchange screen 1100 selected by the user to start the additional generation process), the generation unit 271 determines that the extracted other user is a user who satisfies the selection condition. This makes it possible for the generation unit 271 to automatically generate a character-related image including a character object of another user who has had one-to-one information exchange with the user. In addition, other users who have had one-on-one information exchanges with the user may also be other users who have had one-on-one information exchanges with the user in a chat function or the like in an SNS service other than the information exchange service.

以下、ユーザと他ユーザとの関係に関する選択条件を満たす他ユーザの判定処理の他の一例について説明する。まず、ユーザの端末装置2の送信部272は、ユーザが配信ユーザとして配信した配信画像を視聴したことがある他ユーザを示す配信終了ユーザIDの送信要求を示す情報を、ユーザのユーザIDとともに端末通信I/F21を介してサーバ装置3に送信する。サーバ装置3のサーバ受信部331は、サーバ通信I/F31を介して、送信要求を示す情報及びユーザのユーザIDを受信すると、受信したユーザのユーザIDに関連付けられた配信終了ユーザIDを、サーバ記憶装置32から抽出する。そして、サーバ装置3のサーバ送信部332は、抽出された配信終了ユーザIDを、サーバ通信I/F31を介してユーザの端末装置2に送信する。ユーザの端末装置2の受信部273は、受信した配信終了ユーザIDを端末記憶装置22に記憶する。そして、生成部271は、記憶された配信終了ユーザIDによって示される他ユーザが情報交換グループの所属ユーザである場合、当該配信終了ユーザIDによって示される他ユーザを、選択条件を満たす他ユーザとして判定する。これにより、生成部271は、ユーザが配信ユーザとして配信した配信画像を視聴したことがある他ユーザのキャラクタオブジェクトを含むキャラクタ関連画像を自動的に生成することが可能となる。 Hereinafter, another example of the process of determining other users who satisfy the selection conditions regarding the relationship between the user and other users will be described. First, the transmission unit 272 of the user's terminal device 2 transmits information indicating a transmission request for a distribution end user ID indicating other users who have viewed a distribution image distributed by the user as a distribution user, together with the user ID of the user, to the server device 3 via the terminal communication I/F 21. When the server reception unit 331 of the server device 3 receives the information indicating the transmission request and the user ID of the user via the server communication I/F 31, it extracts the distribution end user ID associated with the received user ID of the user from the server storage device 32. Then, the server transmission unit 332 of the server device 3 transmits the extracted distribution end user ID to the user's terminal device 2 via the server communication I/F 31. The reception unit 273 of the user's terminal device 2 stores the received distribution end user ID in the terminal storage device 22. Then, if the other user indicated by the stored distribution end user ID is a user belonging to an information exchange group, the generation unit 271 determines that the other user indicated by the distribution end user ID is a other user who satisfies the selection conditions. This allows the generation unit 271 to automatically generate character-related images that include character objects of other users who have viewed distribution images distributed by the user as a distribution user.

以下、ユーザと他ユーザとの関係に関する選択条件を満たす他ユーザの判定処理の他の一例について説明する。まず、ユーザの端末装置2の送信部272は、ユーザが過去に参加していた又は現在参加している所定のイベントにおける他ユーザの参加状況の送信要求を示す情報を、ユーザのユーザIDとともに端末通信I/F21を介してサーバ装置3に送信する。サーバ装置3は、所定のイベントを複数のユーザに提供することができ、所定のイベントに参加したい各ユーザは、端末装置2に対する所定の操作を行うことで、サーバ装置3と接続し、所定のイベントに参加することが可能となる。サーバ装置3は、所定のイベントに関する情報(イベントID等)に関連付けて、所定のイベントに参加した各ユーザのユーザIDをサーバ記憶装置32に記憶している。サーバ装置3のサーバ受信部331は、サーバ通信I/F31を介して、送信要求を示す情報及びユーザのユーザIDを受信すると、受信したユーザのユーザIDに関連付けられたイベントIDに関連付けられた他ユーザのユーザIDを、サーバ記憶装置32から抽出する。なお、抽出されたイベントIDに関連付けられた他ユーザのユーザIDは、参加期間の少なくとも一部がユーザと重複する他ユーザのユーザIDでもよい。また、抽出されたイベントIDに関連付けられた他ユーザのユーザIDは、参加期間の少なくとも一部がユーザと重複する他ユーザであって、所定のイベントにおいて設定されたユーザと同一のグループに属する他のユーザIDでもよい。そして、サーバ装置3のサーバ送信部332は、抽出されたユーザIDを、サーバ通信I/F31を介してユーザの端末装置2に送信する。ユーザの端末装置2の受信部273は、受信したユーザIDを端末記憶装置22に記憶する。そして、生成部271は、記憶されたユーザIDによって示される他ユーザが情報交換グループの所属ユーザである場合、記憶されたユーザIDによって示される他ユーザを、選択条件を満たす他ユーザとして判定する。これにより、生成部271は、過去にユーザと同一のイベントに参加していた他ユーザ及び/又は現在ユーザと同一のイベントに参加している他ユーザのキャラクタオブジェクトを含むキャラクタ関連画像を自動的に生成することが可能となる。 Hereinafter, another example of the process of determining other users who satisfy the selection conditions regarding the relationship between the user and other users will be described. First, the transmission unit 272 of the user's terminal device 2 transmits information indicating a request to transmit the participation status of other users in a specific event in which the user has participated in the past or is currently participating, together with the user's user ID, to the server device 3 via the terminal communication I/F 21. The server device 3 can provide a specific event to multiple users, and each user who wants to participate in the specific event can connect to the server device 3 and participate in the specific event by performing a specific operation on the terminal device 2. The server device 3 stores the user IDs of each user who participated in the specific event in the server storage device 32 in association with information regarding the specific event (such as an event ID). When the server receiving unit 331 of the server device 3 receives information indicating a transmission request and the user ID of the user via the server communication I/F 31, it extracts the user IDs of other users associated with the event ID associated with the user ID of the received user from the server storage device 32. Note that the user IDs of other users associated with the extracted event ID may be user IDs of other users whose participation period overlaps with that of the user in at least a part of the event. The user ID of the other user associated with the extracted event ID may be a user ID of a user whose participation period overlaps with the user's and who belongs to the same group as the user set in the specified event. The server transmission unit 332 of the server device 3 transmits the extracted user ID to the user's terminal device 2 via the server communication I/F 31. The receiving unit 273 of the user's terminal device 2 stores the received user ID in the terminal storage device 22. If the other user indicated by the stored user ID is a user who belongs to an information exchange group, the generating unit 271 determines that the other user indicated by the stored user ID is a user who satisfies the selection condition. This allows the generating unit 271 to automatically generate a character-related image including a character object of a user who has previously participated in the same event as the user and/or a user who is currently participating in the same event as the user.

以下、ユーザと他ユーザとの関係に関する選択条件を満たす他ユーザの判定処理の他の一例について説明する。まず、ユーザの端末装置2の送信部272は、ユーザが過去にプレイした所謂ネットゲームをプレイした他ユーザに関する送信要求を示す情報を、ユーザのユーザIDとともに端末通信I/F21を介してサーバ装置3に送信する。 Below, we will explain another example of the process of determining other users who satisfy the selection conditions regarding the relationship between the user and other users. First, the transmission unit 272 of the user's terminal device 2 transmits information indicating a transmission request regarding other users who have played a so-called online game that the user has played in the past, together with the user's user ID, to the server device 3 via the terminal communication I/F 21.

この場合の前提として、サーバ装置3は、一又は複数のネットゲームを複数のユーザに提供する機能を有し、ネットゲームをプレイしたい各ユーザは、端末装置2に対する所定の操作を行うことで、サーバ装置3と接続し、当該ネットゲームのプレイが可能である。サーバ装置3は、ネットゲームに関する情報(ゲームID等)に関連付けて、当該ネットゲームをプレイした各ユーザのユーザIDをサーバ記憶装置32に記憶している。 In this case, the server device 3 has a function of providing one or more online games to multiple users, and each user who wants to play an online game can connect to the server device 3 and play the online game by performing a specific operation on the terminal device 2. The server device 3 stores the user ID of each user who played the online game in the server storage device 32, in association with information about the online game (such as the game ID).

サーバ装置3のサーバ受信部331は、サーバ通信I/F31を介して、送信要求を示す情報及びユーザのユーザIDを受信すると、受信したユーザのユーザIDに関連付けられたゲームIDに関連付けられた他ユーザのユーザIDを、サーバ記憶装置32から抽出する。なお、抽出されたイベントIDに関連付けられた他ユーザのユーザIDは、参加期間の少なくとも一部がユーザと重複する他ユーザのユーザIDでもよい。そして、サーバ装置3のサーバ送信部332は、抽出されたユーザIDを、サーバ通信I/F31を介してユーザの端末装置2に送信する。ユーザの端末装置2の受信部273は、受信したユーザIDを端末記憶装置22に記憶する。そして、生成部271は、記憶されたユーザIDによって示される他ユーザが情報交換グループの所属ユーザである場合、記憶されたユーザIDによって示される他ユーザを、選択条件を満たす他ユーザとして判定する。これにより、生成部271は、過去にユーザと同一のゲームをプレイしていた他ユーザ及び/又は現在ユーザと同一のゲームをプレイしている他ユーザのキャラクタオブジェクトを含むキャラクタ関連画像を自動的に生成することが可能となる。 When the server receiving unit 331 of the server device 3 receives information indicating a transmission request and the user ID of the user via the server communication I/F 31, it extracts the user ID of the other user associated with the game ID associated with the received user ID of the user from the server storage device 32. The user ID of the other user associated with the extracted event ID may be the user ID of the other user whose participation period overlaps with that of the user in at least a part. Then, the server transmitting unit 332 of the server device 3 transmits the extracted user ID to the user's terminal device 2 via the server communication I/F 31. The receiving unit 273 of the user's terminal device 2 stores the received user ID in the terminal storage device 22. Then, if the other user indicated by the stored user ID is a user belonging to an information exchange group, the generating unit 271 determines that the other user indicated by the stored user ID is a user who satisfies the selection condition. This makes it possible for the generating unit 271 to automatically generate a character-related image including the character object of the other user who played the same game as the user in the past and/or the other user who is currently playing the same game as the user.

ユーザと他ユーザとの関係に関する選択条件を満たす他ユーザは、上述の例に限定されず、例えば、ユーザと他ユーザとの関係に関する選択条件を満たす他ユーザには、ユーザによってフォローされている他ユーザ、ユーザをフォローしている他ユーザ、ユーザの相互フォロワーでいる他のユーザ、ユーザと相互フォローしている特定のユーザと相互フォローの関係でいる他のユーザ、ユーザとフレンド関係にある他ユーザ、ユーザの端末装置2において特定情報(電話番号、メールアドレス、所定のID(identification)等)が記憶された他ユーザ等が含まれてもよい。 Other users who satisfy the selection conditions regarding the relationship between the user and other users are not limited to the above examples, and may include, for example, other users who are followed by the user, other users who follow the user, other users who are mutual followers of the user, other users who are in a mutual follow relationship with a specific user who is mutually following the user, other users who are friends with the user, other users whose specific information (phone number, email address, specified ID (identification), etc.) is stored in the user's terminal device 2, etc.

選択条件がユーザと他ユーザとの関係に関する条件である場合、選択条件を満たす他ユーザのうち、他ユーザ設定数UBの他ユーザのキャラクタオブジェクトが追加生成処理に用いられてもよい。例えば、他ユーザ設定数UBが「3」である場合、ユーザと他ユーザとの関係に関する選択条件を満たす他ユーザが10人であっても、当該10人の他ユーザのうちの3人の他ユーザのキャラクタオブジェクトが追加生成処理に用いられる。 When the selection condition is a condition related to the relationship between the user and other users, among the other users who satisfy the selection condition, the character objects of the other users up to the other user set number UB may be used in the additional generation process. For example, when the other user set number UB is "3", even if there are ten other users who satisfy the selection condition related to the relationship between the user and other users, the character objects of three of the ten other users are used in the additional generation process.

他ユーザ設定数UBは、予め設定されたものでも、自動的に設定されたものでもよい。例えば、選択条件を満たす他ユーザの判定処理において、端末記憶装置22に記憶された他ユーザ設定数UBが用いられてもよい。また、選択条件を満たす他ユーザの判定処理において、端末処理装置27によってランダムに設定された他ユーザ設定数UBが用いられてもよい。また、キャラクタ関連画像用のオブジェクトデータに他ユーザ設定数UBが関連付けて記憶されている場合、他オブジェクト選択画面1300に対するユーザの操作に応じて取得された(キャラクタ関連画像用の)オブジェクトデータに関連付けられた他ユーザ設定数UBが、選択条件を満たす他ユーザの判定処理において自動的に用いられてもよい。 The other user set number UB may be preset or automatically set. For example, the other user set number UB stored in the terminal storage device 22 may be used in the process of determining other users who satisfy the selection conditions. Also, the other user set number UB randomly set by the terminal processing device 27 may be used in the process of determining other users who satisfy the selection conditions. Also, if the other user set number UB is stored in association with object data for character-related images, the other user set number UB associated with object data (for character-related images) acquired in response to a user's operation on the other object selection screen 1300 may be automatically used in the process of determining other users who satisfy the selection conditions.

選択条件がユーザと他ユーザとの関係に関する条件であり且つ他ユーザ設定数UBが用いられる場合、選択条件を満たす他ユーザの数が他ユーザ設定数UB未満であれば、追加生成処理が実行されなくてもよい。または、選択条件を満たす他ユーザの数が他ユーザ設定数UB未満である場合、追加生成処理に用いられる他ユーザのキャラクタオブジェクトの数が他ユーザ設定数UBに達するように、選択条件を満たさない他ユーザの中から他ユーザが選択されてもよい。この他ユーザの選択は、ユーザの手動操作によって他ユーザの中から他ユーザが選択されることでもよく、他ユーザの中からランダムに他ユーザが選択されることでもよい。また、選択条件を満たす他ユーザの数が他ユーザ設定数UBを超えた場合、選択条件を満たす他ユーザの中から、他ユーザ設定数UBの他ユーザが、ランダムに選択されてもよく、又は、他ユーザ設定数UBの他ユーザが、ユーザの手動操作によって選択されてもよい。 When the selection condition is a condition related to the relationship between the user and other users and the other user set number UB is used, if the number of other users who satisfy the selection condition is less than the other user set number UB, the additional generation process may not be executed. Alternatively, when the number of other users who satisfy the selection condition is less than the other user set number UB, other users may be selected from other users who do not satisfy the selection condition so that the number of character objects of other users used in the additional generation process reaches the other user set number UB. This selection of other users may be selected from other users by manual operation of the user, or may be selected randomly from other users. Also, when the number of other users who satisfy the selection condition exceeds the other user set number UB, other users of the other user set number UB may be randomly selected from other users who satisfy the selection condition, or other users of the other user set number UB may be selected by manual operation of the user.

選択条件がユーザと他ユーザとの関係に関する条件であり且つ他ユーザ設定数UBが用いられる場合、選択条件(ユーザと他ユーザとの関係に関する条件)は、追加生成処理において複数用いられてもよい。この場合、ユーザと他ユーザとの関係に関する条件のそれぞれに対して優先順位が設定される。 When the selection conditions are conditions related to the relationship between the user and other users and the number of other users set UB is used, multiple selection conditions (conditions related to the relationship between the user and other users) may be used in the additional generation process. In this case, a priority is set for each of the conditions related to the relationship between the user and other users.

以下、優先順位1位の選択条件が「ユーザと一対一の情報交換をしたことがある」という条件であり、優先順位2位の選択条件が「所定のイベントにおいて設定されたユーザと同一のグループに属する」である場合を例に説明する。例えば、生成部271は、情報交換グループの所属ユーザの中から、「ユーザと一対一の情報交換をしたことがある」他ユーザを抽出する。次に、生成部271は、抽出された「ユーザと一対一の情報交換をしたことがある」他ユーザを、優先順位1位の選択条件を満たす他ユーザとして判定する。次に、優先順位1位の選択条件を満たす他ユーザの数が他ユーザ設定数UB未満である場合、情報交換グループの優先順位1位の選択条件を満さない所属ユーザの中から、「所定のイベントにおいて設定されたユーザと同一のグループに属する」他ユーザを抽出する。次に、生成部271は、抽出された「所定のイベントにおいて設定されたユーザと同一のグループに属する」他ユーザを、優先順位2位の選択条件を満たす他ユーザとして判定する。次に、生成部271は、優先順位1位の選択条件を満たす他ユーザと判定された優先順位2位の選択条件を満たす他ユーザとを、選択条件を満たす他ユーザとして設定する。そして、生成部271は、選択条件を満たす他ユーザの数との合計を算出する。 Hereinafter, an example will be described in which the selection condition of the first priority is "having exchanged information one-to-one with the user" and the selection condition of the second priority is "belonging to the same group as the user set in the specified event". For example, the generation unit 271 extracts other users who "have exchanged information one-to-one with the user" from among the users belonging to the information exchange group. Next, the generation unit 271 determines the extracted other users who "have exchanged information one-to-one with the user" as other users who satisfy the selection condition of the first priority. Next, if the number of other users who satisfy the selection condition of the first priority is less than the number of other users set UB, other users who "belong to the same group as the user set in the specified event" are extracted from among the users who do not satisfy the selection condition of the first priority of the information exchange group. Next, the generation unit 271 determines the extracted other users who "belong to the same group as the user set in the specified event" as other users who satisfy the selection condition of the second priority. Next, the generation unit 271 sets the other users who satisfy the selection condition of the first priority and the other users who satisfy the selection condition of the second priority determined to be the other users who satisfy the selection condition. The generation unit 271 then calculates the total number of other users who satisfy the selection conditions.

生成部271は、算出された合計が他ユーザ設定数UBである場合、選択条件を満たす他ユーザが用いられる。また、生成部271は、算出された合計が他ユーザ設定数UBを超えた場合、選択条件を満たす他ユーザの数が他ユーザ設定数UBとなるように、優先順位2位の選択条件を満たす他ユーザの中から再選択した他ユーザを、優先順位2位の選択条件を満たす他ユーザとして設定する。再選択は、ユーザの手動操作による選択でもよく、生成部271による自動的なランダム選択でもよい。また、生成部271は、算出された合計が他ユーザ設定数UBを未満である場合、選択条件を満たす他ユーザの数が他ユーザ設定数UBとなるように、情報交換グループの優先順位1位及び2位の選択条件を満さない所属ユーザの中から、ユーザの手動操作により又はランダムに、選択条件を満たす他ユーザを設定する。 When the calculated total is the other user set number UB, the generation unit 271 uses other users who satisfy the selection condition. When the calculated total exceeds the other user set number UB, the generation unit 271 sets other users who are reselected from among the other users who satisfy the selection condition of the second priority as other users who satisfy the selection condition of the second priority so that the number of other users who satisfy the selection condition becomes the other user set number UB. The reselection may be a selection by manual operation of the user, or may be an automatic random selection by the generation unit 271. When the calculated total is less than the other user set number UB, the generation unit 271 sets other users who satisfy the selection condition by manual operation of the user or randomly from among the users who do not satisfy the selection conditions of the first and second priorities of the information exchange group so that the number of other users who satisfy the selection condition becomes the other user set number UB.

選択条件がユーザと他ユーザとの関係に関する条件である場合において複数種類の他ユーザ設定数UBが用いられもよい。例えば他ユーザ設定数UBとして、「1」、「2」、「3」、「4」の4種類の数値が設定されてもよい。他ユーザ設定数UBは、2種類の数値若しくは3種類の数値でもよく、5種類以上の数値でもよい。例えば、選択条件を満たす他ユーザの数が「1」である場合、追加生成処理において、他ユーザが1人の場合のキャラクタ関連画像が生成される。また、選択条件を満たす他ユーザの数が「2」である場合、追加生成処理において、他ユーザが2人の場合のキャラクタ関連画像が生成される。 When the selection condition is a condition related to the relationship between the user and other users, multiple types of other user setting numbers UB may be used. For example, four types of numerical values, "1", "2", "3", and "4", may be set as the other user setting number UB. The other user setting number UB may be two or three types of numerical values, or may be five or more types of numerical values. For example, when the number of other users satisfying the selection condition is "1", a character-related image for when there is one other user is generated in the additional generation process. Also, when the number of other users satisfying the selection condition is "2", a character-related image for when there are two other users is generated in the additional generation process.

図15は、ユーザの端末装置2の表示装置23に表示される情報交換画面1400の一例を示す図である。情報交換画面1400は、追加生成処理によって新たなキャラクタ関連画像が生成された場合に表示される。 Figure 15 is a diagram showing an example of an information exchange screen 1400 displayed on the display device 23 of the user's terminal device 2. The information exchange screen 1400 is displayed when a new character-related image is generated by the additional generation process.

情報交換画面1400には、情報交換画面1100と同様に、他ユーザ入力情報1401と、他ユーザ情報1402と、テキスト入力オブジェクト1003と、候補表示ボタン1004と、ユーザ入力情報1404と、追加生成ボタン1102とが含まれる。情報交換画面1400の候補情報1403には、情報交換画面1100の4種類の候補情報1101と、1種類の新たなキャラクタ関連画像に対応する候補情報とが含まれる。なお、候補情報1403に新たなキャラクタ関連画像に対応する候補情報が含まれた場合、以前から含まれていた4種類の候補情報1101のうちの1種類以上の候補情報を、候補情報1403から削除してもよい。例えば、2種類以上の候補情報が削除されることにより、候補情報の選択肢が減少することになり、ユーザの情報の選択を容易にすることが可能となる。 The information exchange screen 1400 includes other user input information 1401, other user information 1402, text input object 1003, candidate display button 1004, user input information 1404, and additional generation button 1102, similar to the information exchange screen 1100. The candidate information 1403 of the information exchange screen 1400 includes the four types of candidate information 1101 of the information exchange screen 1100 and candidate information corresponding to one type of new character-related image. Note that when candidate information corresponding to a new character-related image is included in the candidate information 1403, one or more types of candidate information of the four types of candidate information 1101 previously included may be deleted from the candidate information 1403. For example, by deleting two or more types of candidate information, the number of options for candidate information is reduced, making it easier for the user to select information.

ユーザによる入力装置24の操作に応じて、6種類の候補情報1403の中から一つの候補情報が選択された場合、入力装置24は、選択された候補情報に関連付けられた関連画像IDを端末処理装置27に送出する。次に、表示処理部274は、入力装置24から受け取った関連画像IDによって識別されるキャラクタ関連画像を端末記憶装置22から抽出し、抽出されたキャラクタ関連画像を、ユーザ入力情報1404として情報交換画面1400のユーザ表示領域に表示する(図15)。 When one piece of candidate information is selected from the six types of candidate information 1403 in response to the user's operation of the input device 24, the input device 24 sends the related image ID associated with the selected candidate information to the terminal processing device 27. Next, the display processing unit 274 extracts from the terminal storage device 22 the character-related image identified by the related image ID received from the input device 24, and displays the extracted character-related image in the user display area of the information exchange screen 1400 as user input information 1404 (FIG. 15).

表示処理部274によるユーザ入力情報1404の表示とともに、送信部272は、入力装置24から受け取った関連画像ID及び端末記憶装置22に記憶されたユーザIDを、端末通信I/F21を介してサーバ装置3に送信する。サーバ装置3のサーバ送信部332は、サーバ受信部331によって受信されたユーザIDと同じ情報交換グループに関連付けられた他ユーザのユーザIDをサーバ記憶装置32から抽出する。また、サーバ送信部332は、抽出されたユーザIDによって識別される他ユーザの端末装置2に、サーバ受信部331によって受信された関連画像ID及びユーザIDを、サーバ通信I/F31を介して送信する。 Along with displaying the user input information 1404 by the display processing unit 274, the transmission unit 272 transmits the related image ID received from the input device 24 and the user ID stored in the terminal storage device 22 to the server device 3 via the terminal communication I/F 21. The server transmission unit 332 of the server device 3 extracts the user IDs of other users associated with the same information exchange group as the user ID received by the server reception unit 331 from the server storage device 32. In addition, the server transmission unit 332 transmits the related image ID and user ID received by the server reception unit 331 via the server communication I/F 31 to the terminal device 2 of the other user identified by the extracted user ID.

そして、他ユーザの端末装置2の受信部273は、サーバ装置3から送信された関連画像ID及びユーザIDを、端末通信I/F21を介して受信する。次に、他ユーザの端末装置2の表示処理部274は、受信部273によって受信された関連画像IDによって識別されるキャラクタ関連画像を端末記憶装置22から抽出し、抽出されたキャラクタ関連画像を、他ユーザ入力情報として配信画面の他ユーザ表示領域に表示する。このように、ユーザによって使用されたキャラクタ関連画像と同一の画像が、ユーザが所属する情報交換グループに関連付けられた他ユーザの端末装置2においても表示される。 Then, the receiving unit 273 of the other user's terminal device 2 receives the related image ID and user ID transmitted from the server device 3 via the terminal communication I/F 21. Next, the display processing unit 274 of the other user's terminal device 2 extracts from the terminal storage device 22 the character-related image identified by the related image ID received by the receiving unit 273, and displays the extracted character-related image in the other user display area of the distribution screen as other user input information. In this way, the same character-related image used by the user is also displayed on the terminal device 2 of the other user associated with the information exchange group to which the user belongs.

なお、他ユーザの端末装置2の表示処理部274は、受信された関連画像IDによって識別されるキャラクタ関連画像が端末記憶装置22に記憶されていない場合、他ユーザの端末装置2の送信部272は、画像送信要求をサーバ装置3に送信する。画像送信要求は、受信された関連画像ID及び/又はユーザID、並びに、他ユーザのユーザIDとともに送信される。サーバ装置3のサーバ送信部332は、サーバ受信部331によって画像送信要求が受信された場合、画像送信要求とともに受信された関連画像IDに関連付けられたキャラクタ関連画像をサーバ記憶装置32から抽出する。次に、サーバ送信部332は、抽出されたキャラクタ関連画像を、受信された関連画像ID及びユーザIDとともに他ユーザの端末装置2に送信する。他ユーザの端末装置2の受信部273は、サーバ装置3から送信された関連画像ID、キャラクタ関連画像及びユーザIDを、端末通信I/F21を介して受信し、互いに関連付けて端末記憶装置22に記憶する。そして、他ユーザの端末装置2の表示処理部274は、記憶されたキャラクタ関連画像を、他ユーザ入力情報として配信画面の他ユーザ表示領域に表示する。 In addition, if the character-related image identified by the received related image ID is not stored in the terminal storage device 22, the display processing unit 274 of the other user's terminal device 2 transmits an image transmission request to the server device 3. The image transmission request is transmitted together with the received related image ID and/or user ID, and the user ID of the other user. When the server receiving unit 331 receives an image transmission request, the server transmitting unit 332 of the server device 3 extracts the character-related image associated with the related image ID received together with the image transmission request from the server storage device 32. Next, the server transmitting unit 332 transmits the extracted character-related image together with the received related image ID and user ID to the other user's terminal device 2. The receiving unit 273 of the other user's terminal device 2 receives the related image ID, character-related image, and user ID transmitted from the server device 3 via the terminal communication I/F 21, and stores them in the terminal storage device 22 in association with each other. Then, the display processing unit 274 of the other user's terminal device 2 displays the stored character-related image in the other user display area of the distribution screen as other user input information.

なお、新たなキャラクタ関連画像は、追加生成処理を開始するためにユーザが選択操作した情報交換画面1100に係る情報交換グループ以外の他の情報交換グループに係る情報交換においても使用可能であってもよい。例えば、当該他の情報交換グループに係る情報交換画面においても、新たなキャラクタ関連画像に対応する候補情報が表示され、ユーザによる候補情報の選択に応じて、選択された候補情報に対応するキャラクタ関連画像が表示されるとともに、当該他の情報交換グループに属する他ユーザの端末装置2においても選択された候補情報に対応するキャラクタ関連画像が表示される。 The new character-related image may also be usable in information exchanges related to information exchange groups other than the information exchange group related to the information exchange screen 1100 selected by the user to start the additional generation process. For example, candidate information corresponding to the new character-related image is also displayed on the information exchange screen related to the other information exchange group, and in response to the user's selection of candidate information, a character-related image corresponding to the selected candidate information is displayed, and the character-related image corresponding to the selected candidate information is also displayed on the terminal device 2 of another user belonging to the other information exchange group.

また、新たなキャラクタ関連画像は、新たなキャラクタ関連画像に含まれるキャラクタオブジェクトによって示される他ユーザが含まれない情報交換グループに係る情報交換においても使用できないように制御されてもよい。例えば、ユーザの端末装置2の表示処理部274は、当該ユーザのキャラクタオブジェクトと、現在表示している情報交換画面に係る情報交換グループに含まれていない一又は複数の他ユーザのキャラクタオブジェクトのみとを含むキャラクタ関連画像の候補情報を表示しない。これにより、キャラクタ関連画像に含まれているキャラクタオブジェクトによって示される他ユーザが一人も含まれていない情報交換グループ内では、当該キャラクタ関連画像の使用の制限が可能となり、キャラクタオブジェクトの意図しない拡散を防止すること可能となる。 The new character-related image may also be controlled so that it cannot be used in information exchanges related to information exchange groups that do not include other users represented by character objects included in the new character-related image. For example, the display processing unit 274 of the user's terminal device 2 does not display candidate information for character-related images that include only the user's character object and character objects of one or more other users not included in the information exchange group related to the currently displayed information exchange screen. This makes it possible to restrict the use of the character-related image in information exchange groups that do not include any other users represented by character objects included in the character-related image, and to prevent unintended spread of the character objects.

(情報処理システム1の動作シーケンス)
図16は、情報処理システム1の動作シーケンスの一例を示す図である。この動作シーケンスは、予め端末記憶装置22及びサーバ記憶装置32のそれぞれに記憶されている制御プログラムに基づいて、主に端末処理装置27及びサーバ処理装置33により、2台の端末装置2及びサーバ装置3の各要素と協働して実行される。以下、2台の端末装置2のうち、配信端末装置2aを、配信ユーザによって操作される端末装置2とし、視聴端末装置2bを、視聴ユーザによって操作される端末装置2とする。
(Operation sequence of information processing system 1)
16 is a diagram showing an example of an operation sequence of the information processing system 1. This operation sequence is executed mainly by the terminal processing device 27 and the server processing device 33 in cooperation with each element of the two terminal devices 2 and the server device 3, based on a control program previously stored in the terminal storage device 22 and the server storage device 32, respectively. Hereinafter, of the two terminal devices 2, the distribution terminal device 2a is defined as the terminal device 2 operated by the distribution user, and the viewing terminal device 2b is defined as the terminal device 2 operated by the viewing user.

まず、配信端末装置2aの送信部272は、生成部271によって生成されたキャラクタ動画データ及び配信ユーザの配信ユーザIDを、端末通信I/F21を介してサーバ装置3に送信する(ステップS101)。送信部272は、配信ユーザの音声データをキャラクタ動画データとともにサーバ装置3に送信してもよい。動画配信サービスの開始から終了までの間、ステップS101の処理は、所定時間間隔ごと(例えば、2秒間隔ごと)に連続して実行される。そして、ステップS101の処理の実行に応じて、ステップS102~S104に係る処理は断続的に実行される。 First, the transmission unit 272 of the distribution terminal device 2a transmits the character video data generated by the generation unit 271 and the broadcast user ID of the broadcast user to the server device 3 via the terminal communication I/F 21 (step S101). The transmission unit 272 may also transmit the voice data of the broadcast user together with the character video data to the server device 3. From the start to the end of the video distribution service, the process of step S101 is executed continuously at predetermined time intervals (e.g., every two seconds). Then, the processes of steps S102 to S104 are executed intermittently in response to the execution of the process of step S101.

サーバ装置3のサーバ送信部332は、サーバ受信部331によってキャラクタ動画データが受信されるたびに、受信されたキャラクタ動画データを、サーバ通信I/F31を介して視聴端末装置2bに配信する(ステップS102)。配信端末装置2aの表示処理部274は、生成部271によって生成されたキャラクタ動画データに基づいて配信画像を表示するための描画データを生成し、生成した描画データに基づいて表示装置23に配信画面を表示する(ステップS103)。視聴端末装置2bの表示処理部274は、受信部273によって受信されたキャラクタ動画データに基づいて配信画像を表示するための描画データを生成し、生成した描画データに基づいて表示装置23に配信画面を表示する(ステップS104)。 The server transmitting unit 332 of the server device 3 distributes the received character video data to the viewing terminal device 2b via the server communication I/F 31 each time the server receiving unit 331 receives character video data (step S102). The display processing unit 274 of the distribution terminal device 2a generates drawing data for displaying a distribution image based on the character video data generated by the generating unit 271, and displays a distribution screen on the display device 23 based on the generated drawing data (step S103). The display processing unit 274 of the viewing terminal device 2b generates drawing data for displaying a distribution image based on the character video data received by the receiving unit 273, and displays a distribution screen on the display device 23 based on the generated drawing data (step S104).

次に、視聴端末装置2bの送信部272は、視聴ユーザによる入力装置24の操作に応じて入力された、応答情報を配信画面に表示させるための表示指示に関する情報、及び/又は、追加オブジェクトを配信画面に表示させるための追加指示を示す情報を、端末通信I/F21を介してサーバ装置3に送信する(ステップS105)。サーバ装置3のサーバ送信部332は、サーバ受信部331によって各種指示(表示指示、追加指示等)に関する情報が受信されるたびに、受信された各種指示に関する情報を、サーバ通信I/F31を介して配信端末装置2aに配信する(ステップS106)。視聴端末装置2bの表示処理部274は、視聴ユーザによる入力装置24の操作に応じて入力された各種指示に基づいて、応答情報及び/又は追加オブジェクトを表示するための描画データを生成し、生成した描画データに基づいて表示装置23に配信画面を表示する(ステップS107)。配信端末装置2aの表示処理部274は、受信部273によって受信された各種指示に関する情報に基づいて、応答情報及び/又は追加オブジェクトを表示するための描画データを生成し、生成した描画データに基づいて表示装置23に配信画面を表示する(ステップS108)。 Next, the transmitting unit 272 of the viewing terminal device 2b transmits information regarding a display instruction for displaying the response information on the distribution screen and/or information indicating an additional instruction for displaying the additional object on the distribution screen, which is input in response to the operation of the input device 24 by the viewing user, to the server device 3 via the terminal communication I/F 21 (step S105). Each time the server receiving unit 331 receives information regarding various instructions (display instructions, additional instructions, etc.), the server transmitting unit 332 of the server device 3 distributes the received information regarding the various instructions to the distribution terminal device 2a via the server communication I/F 31 (step S106). The display processing unit 274 of the viewing terminal device 2b generates drawing data for displaying the response information and/or the additional object based on the various instructions input in response to the operation of the input device 24 by the viewing user, and displays the distribution screen on the display device 23 based on the generated drawing data (step S107). The display processing unit 274 of the distribution terminal device 2a generates drawing data for displaying the response information and/or additional objects based on the information regarding the various instructions received by the receiving unit 273, and displays the distribution screen on the display device 23 based on the generated drawing data (step S108).

次に、配信端末装置2aの表示処理部274は、候補情報表示処理を実行する(ステップS109)。候補情報表示処理の詳細は後述する。なお、候補情報表示処理は、配信端末装置2aのみが実行可能な処理に限らない。例えば、ユーザを示すキャラクタオブジェクトが利用可能な視聴端末装置2bの表示処理部274が、候補情報表示処理を実行してもよい。 Next, the display processing unit 274 of the distribution terminal device 2a executes a candidate information display process (step S109). Details of the candidate information display process will be described later. Note that the candidate information display process is not limited to a process that can be executed only by the distribution terminal device 2a. For example, the display processing unit 274 of the viewing terminal device 2b, which has a character object representing a user available, may execute the candidate information display process.

次に、配信端末装置2aの生成部271及び表示処理部274は、追加生成処理を実行する(ステップS110)。追加生成処理の詳細は後述する。追加生成処理は、配信端末装置2aのみが実行可能な処理に限らない。例えば、ユーザを示すキャラクタオブジェクトが利用可能な視聴端末装置2bの生成部271及び表示処理部274が、候補情報表示処理を実行してもよい。 Next, the generation unit 271 and the display processing unit 274 of the distribution terminal device 2a execute the additional generation process (step S110). The details of the additional generation process will be described later. The additional generation process is not limited to a process that can be executed only by the distribution terminal device 2a. For example, the generation unit 271 and the display processing unit 274 of the viewing terminal device 2b, which has a character object representing a user available, may execute the candidate information display process.

次に、配信端末装置2aの送信部272は、配信ユーザによる入力装置24の操作に応じて入力された入力情報を、端末通信I/F21を介してサーバ装置3に送信する(ステップS111)。次に、サーバ装置3のサーバ送信部332は、サーバ受信部331によって入力情報が受信されるたびに、受信された入力情報を、サーバ通信I/F31を介して視聴端末装置2bに配信する(ステップS112)。配信端末装置2aの表示処理部274は、配信ユーザによる入力装置24の操作に応じて入力された入力情報を表示するための描画データを生成し、生成した描画データに基づいて表示装置23に情報交換画面を表示する(ステップS113)。視聴端末装置2bの表示処理部274は、受信部273によって受信された入力情報を表示するための描画データを生成し、生成した描画データに基づいて表示装置23に情報交換画面を表示する(ステップS114)。 Next, the transmission unit 272 of the distribution terminal device 2a transmits the input information input in response to the operation of the input device 24 by the distribution user to the server device 3 via the terminal communication I/F 21 (step S111). Next, the server transmission unit 332 of the server device 3 distributes the received input information to the viewing terminal device 2b via the server communication I/F 31 every time the server reception unit 331 receives the input information (step S112). The display processing unit 274 of the distribution terminal device 2a generates drawing data for displaying the input information input in response to the operation of the input device 24 by the distribution user, and displays an information exchange screen on the display device 23 based on the generated drawing data (step S113). The display processing unit 274 of the viewing terminal device 2b generates drawing data for displaying the input information received by the reception unit 273, and displays an information exchange screen on the display device 23 based on the generated drawing data (step S114).

図17は、候補情報表示処理の動作フローの一例を示す図である。図17に示される候補情報表示処理は、図17のステップS110において実行される。 Figure 17 is a diagram showing an example of the operation flow of the candidate information display process. The candidate information display process shown in Figure 17 is executed in step S110 of Figure 17.

まず、表示処理部274は、候補情報の表示指示が取得されたか否かを判定する(ステップS201)。候補情報の表示指示が取得されていない場合(ステップS201-No)、処理をステップS201に戻す(候補情報の表示指示が取得されるまで待機する。)。 First, the display processing unit 274 determines whether or not an instruction to display candidate information has been acquired (step S201). If an instruction to display candidate information has not been acquired (step S201-No), the process returns to step S201 (waits until an instruction to display candidate information is acquired).

表示処理部274は、候補情報の表示指示が取得された場合(ステップS201-Yes)、キャラクタ関連画像が過去に生成されて端末記憶装置22に記憶されているか否かを判定する(ステップS202)。生成部271は、キャラクタ関連画像が記憶されていない場合(ステップS202-No)、キャラクタ関連画像を生成し(ステップS303)、処理をステップS204に進める。 When an instruction to display candidate information is acquired (step S201-Yes), the display processing unit 274 determines whether a character-related image has been generated in the past and stored in the terminal storage device 22 (step S202). When a character-related image has not been stored (step S202-No), the generation unit 271 generates a character-related image (step S303) and proceeds to step S204.

表示処理部274は、キャラクタ関連画像が過去に生成されて端末記憶装置22に記憶されている場合(ステップS202-Yes)、生成部271は、キャラクタ関連画像に対応する候補情報を生成して、表示処理部274は、生成された候補情報を表示し(ステップS204)、候補情報表示処理を終了する。 If a character-related image has been generated in the past and stored in the terminal storage device 22 (step S202-Yes), the generation unit 271 generates candidate information corresponding to the character-related image, and the display processing unit 274 displays the generated candidate information (step S204), and ends the candidate information display process.

図18は、追加生成処理の動作フローの一例を示す図である。図18に示される追加生成処理は、図16のステップS110において実行される。 Figure 18 is a diagram showing an example of the operation flow of the additional generation process. The additional generation process shown in Figure 18 is executed in step S110 of Figure 16.

まず、表示処理部274は、情報交換画面1100に含まれる追加生成ボタン1102に対するユーザの選択に応じて追加生成処理が開始された場合、他オブジェクト選択画面1300を表示装置23に表示する(ステップS301)。次に、表示処理部274は、他オブジェクト選択画面1300に含まれるユーザ選択指示ボタン1303に対するユーザの選択に応じてユーザ選択指示が入力されたか否かを判定する(ステップS302)。 First, when the additional generation process is started in response to the user's selection of the additional generation button 1102 included in the information exchange screen 1100, the display processing unit 274 displays the other object selection screen 1300 on the display device 23 (step S301). Next, the display processing unit 274 determines whether a user selection instruction has been input in response to the user's selection of the user selection instruction button 1303 included in the other object selection screen 1300 (step S302).

ユーザ選択指示が入力されていないと判定された場合(ステップS302-No)、表示処理部274は、追加生成処理を終了する。ユーザ選択指示が入力されたと判定された場合(ステップS302-Yes)、表示処理部274は、ユーザ選択画面1310を表示装置23に表示する(ステップS303)。 If it is determined that a user selection instruction has not been input (step S302-No), the display processing unit 274 ends the additional generation process. If it is determined that a user selection instruction has been input (step S302-Yes), the display processing unit 274 displays the user selection screen 1310 on the display device 23 (step S303).

次に、表示処理部274は、ユーザ選択画面1310に含まれる追加生成指示ボタン1313に対するユーザの選択に応じて追加生成指示が入力されたか否かを判定する(ステップS304)。追加生成指示が入力されていないと判定された場合(ステップS304-No)、表示処理部274は、追加生成処理を終了する。追加生成指示が入力されたと判定された場合(ステップS304-Yes)、生成部271は、新たなキャラクタ関連画像を生成する(ステップS305)。そして、表示処理部274は、生成された新たなキャラクタ関連画像を表示し(ステップS306)、追加生成処理が終了する。 The display processing unit 274 then determines whether an additional generation instruction has been input in response to the user's selection of the additional generation instruction button 1313 included in the user selection screen 1310 (step S304). If it is determined that an additional generation instruction has not been input (step S304-No), the display processing unit 274 ends the additional generation process. If it is determined that an additional generation instruction has been input (step S304-Yes), the generation unit 271 generates a new character-related image (step S305). Then, the display processing unit 274 displays the generated new character-related image (step S306), and the additional generation process ends.

以上、詳述したとおり、本実施形態の情報処理システム1では、キャラクタ関連画像の生成又は追加を指示したユーザ以外の他ユーザを示すキャラクタオブジェクトに関する情報に基づいて、使用可能となるキャラクタ関連画像の種類を、増加させることができる。このように、本実施形態の情報処理システム1によって、ユーザに煩雑な操作を行わせることなく、他ユーザに提供される情報を決定するユーザインターフェースを向上させることが可能となる。また、本実施形態の情報処理システム1では、キャラクタ関連画像の生成又は追加を指示したユーザ以外の他ユーザを示すキャラクタオブジェクトに関する情報に基づいて、キャラクタ関連画像の種類を変更することができる。このように、本実施形態の情報処理システム1によって、ユーザに煩雑な操作を行わせることなく、ユーザによる、他ユーザに提供される情報を変化させてユーザの選択を飽きさせないようにすることが可能となる。 As described above in detail, in the information processing system 1 of this embodiment, the types of character-related images that can be used can be increased based on information about character objects that represent users other than the user who instructed the generation or addition of a character-related image. In this way, the information processing system 1 of this embodiment makes it possible to improve the user interface that determines the information to be provided to other users without requiring the user to perform complicated operations. In addition, in the information processing system 1 of this embodiment, the type of character-related image can be changed based on information about character objects that represent users other than the user who instructed the generation or addition of a character-related image. In this way, the information processing system 1 of this embodiment makes it possible to change the information provided to other users by the user without requiring the user to perform complicated operations, thereby preventing the user from getting bored with the selection.

(変形例1)
なお、本発明は、本実施形態に限定されるものではない。例えば、情報交換画面において、スタンプ画像が、種類ごとに分類されて表示されてもよい。例えば、スタンプ画像には、「OK」を伝えるためのスタンプ画像、「NO」を伝えるためのスタンプ画像、「笑う」表情を有するスタンプ画像等が含まれる。また、スタンプ画像には、キャラクタ関連画像として生成されたスタンプ画像、新たなキャラクタ関連画像として生成されたスタンプ画像等が含まれてもよい。
(Variation 1)
The present invention is not limited to this embodiment. For example, on the information exchange screen, stamp images may be classified by type and displayed. For example, the stamp images include stamp images for conveying "OK", stamp images for conveying "NO", stamp images having a "laughing" expression, etc. In addition, the stamp images may include stamp images generated as character-related images, stamp images generated as new character-related images, etc.

図19は、キャラクタ関連画像として生成されたスタンプ画像を含む情報交換画面1500、1510の一例を示す図である。情報交換画面1500、1510において、スタンプ画像の種類を選択するための種類選択ボタン1501が含まれる。ユーザによる入力装置24の操作に応じて、いずれかの種類選択ボタン1501に対応する候補情報が選択された場合、選択された種類選択ボタン1501に対応する種類のスタンプ画像が、種類選択ボタン1501の下の表示領域に表示される。図19では、スタンプ画像の種類を選択するためのウィジェットとしてボタンが例示されるが、スタンプ画像の種類を選択するためのウィジェットはタブでもよい。このように、情報交換画面1500、1510において、複数のスタンプ画像のそれぞれが種類ごとに切り替えて表示される。 Figure 19 is a diagram showing an example of information exchange screens 1500, 1510 including stamp images generated as character-related images. The information exchange screens 1500, 1510 include type selection buttons 1501 for selecting the type of stamp image. When candidate information corresponding to one of the type selection buttons 1501 is selected in response to a user's operation of the input device 24, a stamp image of the type corresponding to the selected type selection button 1501 is displayed in the display area below the type selection button 1501. In Figure 19, a button is shown as an example of a widget for selecting the type of stamp image, but the widget for selecting the type of stamp image may also be a tab. In this way, the information exchange screens 1500, 1510 display a plurality of stamp images by switching between them according to type.

図19(a)は、キャラクタ関連画像として生成されたスタンプ画像に対応する種類選択ボタン1501が選択された場合の情報交換画面1500の一例を示す図である。情報交換画面1500では、キャラクタ関連画像として生成されたスタンプ画像に対応する候補情報1101が表示される。なお、「OK」を伝えるためのスタンプ画像に対応する種類選択ボタン1501が選択された場合、情報交換画面1500には、「OK」を伝えるためのスタンプ画像に対応する候補情報が表示される。 Figure 19 (a) is a diagram showing an example of an information exchange screen 1500 when a type selection button 1501 corresponding to a stamp image generated as a character-related image is selected. On the information exchange screen 1500, candidate information 1101 corresponding to the stamp image generated as a character-related image is displayed. Note that when the type selection button 1501 corresponding to a stamp image for conveying "OK" is selected, the information exchange screen 1500 displays candidate information corresponding to the stamp image for conveying "OK".

図19(b)は、新たなキャラクタ関連画像として生成されたスタンプ画像に対応する種類選択ボタン1501が選択された場合の情報交換画面1510の一例を示す図である。情報交換画面1510では、新たなキャラクタ関連画像として生成されたスタンプ画像に対応する種類選択ボタン1501が選択されて、この選択に応じて、新たなキャラクタ関連画像として生成されたスタンプ画像に対応する候補情報1511が表示される。図21(b)に示される例では、新たなキャラクタ関連画像として生成されたスタンプ画像に対応する種類選択ボタン1501は、「追加」と表記されたボタンオブジェクトである。 Figure 19 (b) is a diagram showing an example of an information exchange screen 1510 when a type selection button 1501 corresponding to a stamp image generated as a new character-related image is selected. On the information exchange screen 1510, the type selection button 1501 corresponding to the stamp image generated as a new character-related image is selected, and in response to this selection, candidate information 1511 corresponding to the stamp image generated as a new character-related image is displayed. In the example shown in Figure 21 (b), the type selection button 1501 corresponding to the stamp image generated as a new character-related image is a button object labeled "Add."

このように、情報交換画面において、スタンプ画像が、種類ごとに分類されて表示されるように構成されることにより、ユーザインターフェースを向上させることが可能となる。このような情報交換画面により、端末装置2の表示画面のサイズに限りがあったとしても、複数のスタンプ画像の一覧性を向上させることが可能となる。また、このような情報交換画面1500、1510により、ユーザは、使用を希望するスタンプ画像を直感的及び/又は容易に発見することが可能となる。また、このような情報交換画面1500、1510により、ユーザは、新たなキャラクタ関連画像として生成されたスタンプ画像の有無を一見して把握することが可能となる。 In this way, the information exchange screen is configured to display stamp images categorized by type, thereby improving the user interface. Such an information exchange screen makes it possible to improve the visibility of multiple stamp images even if the size of the display screen of the terminal device 2 is limited. Furthermore, such information exchange screens 1500, 1510 allow the user to intuitively and/or easily find the stamp image they wish to use. Furthermore, such information exchange screens 1500, 1510 allow the user to know at a glance whether or not there are any stamp images that have been generated as new character-related images.

(変形例2)
端末装置2の端末処理装置27により実現される機能の少なくとも一部は、端末装置2の端末処理装置27以外のプロセッサにより実現されてもよい。端末処理装置27により実現される機能の少なくとも一部は、例えば、サーバ装置3のサーバ処理装置33により実現されてもよい。具体的には、生成部271と表示処理部274の機能の一部は、サーバ装置3において実行されてもよい。例えば、端末装置2は、連続的に取得した撮像データと音声データを、端末装置2を操作するユーザのユーザIDとともにサーバ装置3に送信する。そして、サーバ装置3は、生成部271及び表示処理部274の機能を用いて、キャラクタ動画データを生成し、全てのユーザの配信画像を含むコミュニケーション画面を表示装置23に表示するための表示情報を生成する。そして、サーバ装置3は、表示情報を、音声情報(音声データ)とともに全てのユーザの各端末装置2に送信する。各端末装置2は、サーバ装置3から受信した各情報を出力する(所謂「サーバレンダリング」)。
(Variation 2)
At least a part of the functions realized by the terminal processing device 27 of the terminal device 2 may be realized by a processor other than the terminal processing device 27 of the terminal device 2. At least a part of the functions realized by the terminal processing device 27 may be realized, for example, by the server processing device 33 of the server device 3. Specifically, some of the functions of the generation unit 271 and the display processing unit 274 may be executed in the server device 3. For example, the terminal device 2 transmits continuously acquired imaging data and audio data to the server device 3 together with the user ID of the user who operates the terminal device 2. Then, the server device 3 generates character video data using the functions of the generation unit 271 and the display processing unit 274, and generates display information for displaying a communication screen including the delivery images of all users on the display device 23. Then, the server device 3 transmits the display information together with audio information (audio data) to each terminal device 2 of all users. Each terminal device 2 outputs each piece of information received from the server device 3 (so-called "server rendering").

(変形例3)
端末装置2は、端末装置2に記憶された制御プログラムに含まれる各種命令を実行することにより、コミュニケーション画面等を表示する機能を有するが、端末装置2は、情報交換サービス及び/又は動画配信サービスを実現するために、ウェブアプリケーションに組み込まれたブラウザ機能を呼び出し、このブラウザ機能を用いて、サーバ装置からウェブページ(HTML(Hyper Text Markup Language)等のマークアップ言語によって記述されたドキュメント)を受信し、このウェブページに組み込まれた制御プログラムを実行してもよい(所謂「ブラウザレンダリング」)。例えば、マークアップ言語として、HTML 5が用いられることにより、端末装置2は、新規な情報処理を容易に実行することができる。端末装置2において情報交換サービス及び/又は動画配信サービスを実現させるためにこのようなウェブアプリケーションを採用することにより、プログラムの製作者は、サーバ装置により送信されるウェブページに新しいプログラムを組み込むだけで新しい情報処理をクライアントサイド(端末装置側)に提供することができ、新しいプログラムの製作工数を大幅に抑えることが可能となる。また、クライアントサイドでは、新しい制御プログラムをダウンロードせずにウェブページを受信するだけで、新しいサービスの提供を受けることができ、制御プログラムのダウンロードに比べ、通信ネットワークの負荷、通信コスト及び/又は通信時間の低減が可能となり且つユーザのインターフェースの簡素化を実現することが可能となる。
(Variation 3)
The terminal device 2 has a function of displaying a communication screen or the like by executing various commands included in a control program stored in the terminal device 2, but in order to realize an information exchange service and/or a video distribution service, the terminal device 2 may call up a browser function incorporated in a web application, receive a web page (a document written in a markup language such as HTML (Hyper Text Markup Language)) from a server device using this browser function, and execute the control program incorporated in this web page (so-called "browser rendering"). For example, by using HTML 5 as a markup language, the terminal device 2 can easily execute new information processing. By adopting such a web application to realize an information exchange service and/or a video distribution service in the terminal device 2, the creator of the program can provide the client side (terminal device side) with new information processing simply by incorporating a new program into the web page transmitted by the server device, and the labor required for creating a new program can be significantly reduced. In addition, the client side can receive the new service simply by receiving the web page without downloading a new control program, which makes it possible to reduce the load on the communication network, communication costs, and/or communication time compared to downloading a control program, and to simplify the user interface.

(変形例4)
ユーザAの端末装置2の生成部271は、撮像データを用いずにフェイスモーションデータを含む出力情報を生成してもよい。例えば、端末装置2の端末記憶装置22には、音声データに対応するフェイスモーションデータを記憶しており、生成部271は、取得したユーザAの音声データに対応するフェイスモーションデータを端末記憶装置22から抽出して、抽出したフェイスモーションデータと、音声データ及びユーザAのユーザIDとを含む出力情報を生成してもよい。また、ユーザAの端末装置2の生成部271は、フェイスモーションデータを含めずに、マイク26から出力されたユーザAの音声データと端末記憶装置22に記憶されたユーザIDとを含む出力情報を生成してもよい。この場合、ユーザBの端末装置2の表示処理部274は、サーバ装置3経由で受信したユーザAの出力情報に含まれるユーザAの音声データに対応するフェイスモーションデータを抽出して、ユーザAのキャラクタオブジェクトのアニメーションを生成してもよい。なお、ユーザの音声データに対応するフェイスモーションデータの生成処理は、公知のリップシンクアルゴリズムを用いた処理であってもよい。
(Variation 4)
The generating unit 271 of the terminal device 2 of the user A may generate output information including face motion data without using imaging data. For example, the terminal storage device 22 of the terminal device 2 stores face motion data corresponding to voice data, and the generating unit 271 may extract face motion data corresponding to the acquired voice data of the user A from the terminal storage device 22 and generate output information including the extracted face motion data, the voice data, and the user ID of the user A. The generating unit 271 of the terminal device 2 of the user A may generate output information including the voice data of the user A output from the microphone 26 and the user ID stored in the terminal storage device 22 without including the face motion data. In this case, the display processing unit 274 of the terminal device 2 of the user B may extract face motion data corresponding to the voice data of the user A included in the output information of the user A received via the server device 3 and generate animation of the character object of the user A. The generation process of the face motion data corresponding to the voice data of the user may be a process using a known lip sync algorithm.

例えば、ユーザAの端末装置2がHMDを表示装置23として用いるような場合では、ユーザAの撮像データを取得することなしに、キャラクタオブジェクトを介したコミュニケーションをユーザBと行うことが可能となる。 For example, if user A's terminal device 2 uses an HMD as the display device 23, it is possible to communicate with user B via a character object without acquiring image data of user A.

(変形例5)
各端末装置2に表示される配信画像602、612、812は、配信ユーザの動作に基づいて生成された3次元又は2次元のキャラクタオブジェクトのアニメーションが含まれる動画像又は静止画像に限られない。配信画像602、612、812には、配信ユーザの操作に応じて生成されたキャラクタオブジェクトのアニメーションが含まれてもよく、また、配信ユーザ本人の動画像又は静止画像が含まれてもよい。なお、動画配信サービス中において、各端末装置2は、これらキャラクタオブジェクトのアニメーション又は配信ユーザ本人の動画像又は静止画像を表示しなくてもよい。この場合、各端末装置2は、配信ユーザの音声のみをスピーカから音声出力してもよい。
(Variation 5)
The broadcast images 602, 612, 812 displayed on each terminal device 2 are not limited to moving images or still images including animation of a three-dimensional or two-dimensional character object generated based on the broadcast user's actions. The broadcast images 602, 612, 812 may include animation of a character object generated in response to the broadcast user's operation, and may also include moving images or still images of the broadcast user himself. Note that, during the video broadcast service, each terminal device 2 does not need to display animation of these character objects or moving images or still images of the broadcast user himself. In this case, each terminal device 2 may output only the broadcast user's voice from a speaker.

このように、本実施形態に開示の「配信ユーザ」は、キャラクタ動画データをサーバ装置に送信するという端末装置の機能を少なくとも使用するユーザに限らず、各種配信画像を表示するための情報及び/又は音声データを送信する側のユーザでもよい。各種配信画像を表示するための情報は、例えば、キャラクタ動画データ、配信ユーザ本人を撮影した動画像データ等である。 In this way, the "broadcast user" disclosed in this embodiment is not limited to a user who at least uses the function of a terminal device to transmit character video data to a server device, but may also be a user who transmits information and/or audio data for displaying various broadcast images. Information for displaying various broadcast images is, for example, character video data, video data of the broadcast user himself, etc.

(変形例6)
また、本実施形態に開示の「配信ユーザ」は、単独での動画配信サービスを主催又は開催するユーザに限らない。「配信ユーザ」は、複数人が参加可能なコラボ配信サービス、複数人が参加及び/又は視聴可能なビデオチャットサービス又はボイスチャットサービスを主催又は開催するユーザでもよい。または、「配信ユーザ」は、複数人が参加及び/又は視聴可能な仮想空間上でのイベント(パーティなど)サービスを主催又は開催するユーザでもよい。このように、「配信ユーザ」は、これらのサービスをメインで実行するユーザでもよく、ホストユーザ、主催ユーザ、又は開催ユーザなどと言い換えられてもよい。
(Variation 6)
Furthermore, the "broadcast user" disclosed in this embodiment is not limited to a user who hosts or hosts a single video distribution service. The "broadcast user" may be a user who hosts or hosts a collaborative distribution service in which multiple people can participate, or a video chat service or voice chat service in which multiple people can participate and/or watch. Alternatively, the "broadcast user" may be a user who hosts or hosts an event (such as a party) service in a virtual space in which multiple people can participate and/or watch. In this way, the "broadcast user" may be a user who mainly performs these services, and may be rephrased as a host user, organizer user, or organizer user.

本実施形態に開示の「視聴ユーザ」は、配信端末装置からキャラクタ動画データを受信し且つ配信ユーザの配信画像を表示するという端末装置の機能を少なくとも使用するユーザに限らない。「視聴ユーザ」は、各種配信画像を表示するための情報及び/又は音声データを受信する側のユーザでもよい。 The "viewing user" disclosed in this embodiment is not limited to a user who at least uses the functions of the terminal device to receive character video data from the distribution terminal device and display the distribution image of the distribution user. The "viewing user" may also be a user who receives information and/or audio data for displaying various distribution images.

「視聴ユーザ」は、各種配信画像を表示するための情報及び/又は音声データを受信する側のユーザのみならず、リアクションすることも可能なユーザでもよい。例えば、「視聴ユーザ」は、動画配信サービス又はコラボ配信サービスを視聴するユーザ、若しくは、ビデオチャットサービス、ボイスチャットサービス、又はやイベントサービスに参加するユーザ及び/又はこれらサービスを視聴するユーザでもよい。そのため、本開示における「視聴ユーザ」は、ゲストユーザ、参加ユーザ、リスナー、観覧ユーザ、又は応援ユーザなどと言い換えられてもよい。 A "viewing user" may be not only a user who receives information and/or audio data for displaying various distributed images, but also a user who is capable of reacting. For example, a "viewing user" may be a user who watches a video distribution service or a collaboration distribution service, or a user who participates in a video chat service, a voice chat service, or an event service and/or a user who watches these services. Therefore, the "viewing user" in this disclosure may be rephrased as a guest user, a participating user, a listener, a viewing user, or a supporting user.

(変形例7)
また、本開示の実施形態における情報処理システム1は、複数の人が同時に参加してキャラクタオブジェクト(例えば、アバター等)を通じて、交流、仕事、及び/又は遊びなどを実社会に近いレベルの自由な活動ができるデジタル世界であって、現実と仮想の隔たりを超えて社会活動ができる、次のインターネット空間(メタバース)を提供してもよい。このような空間において、ユーザのアバターはワールド内を自由に歩き回り、互いにコミュニケーションをとることが可能である。
(Variation 7)
Furthermore, the information processing system 1 according to the embodiment of the present disclosure may provide a digital world in which multiple people can participate simultaneously and freely engage in activities such as social interaction, work, and/or play through character objects (e.g., avatars) at a level close to that of the real world, such as the next Internet space (metaverse), where social activities can take place beyond the gap between reality and virtuality. In such a space, users' avatars can freely roam the world and communicate with each other.

情報処理システム1は、かかる空間にいる複数のアバターの中の一のアバター(キャラクタオブジェクト)を、配信ユーザのキャラクタオブジェクトとして含む配信画像を配信してもよい。すなわち、多対多のメタバース空間において一対多の動画配信が行われてもよい。このような空間において、配信ユーザと視聴ユーザとは特に区別されないものとすることができる。 The information processing system 1 may distribute a distribution image that includes one avatar (character object) among multiple avatars in the space as the character object of the distribution user. In other words, one-to-many video distribution may be performed in a many-to-many metaverse space. In such a space, there may be no particular distinction between the distribution user and the viewing user.

メタバース内に存在する、配信ユーザのキャラクタオブジェクトと視聴ユーザのキャラクタオブジェクトとの関係が、ユーザと他ユーザとの関係に関する選択条件を満たす他ユーザの判定処理に使用されてもよい。例えば、サーバ装置3は、配信ユーザのキャラクタオブジェクトのメタバース内の位置を示す位置情報と、視聴ユーザのキャラクタオブジェクトのメタバース内の位置を示す位置情報と、を所定時間間隔ごと(例えば1秒ごと)にサーバ記憶装置32に記憶する。 The relationship between the broadcasting user's character object and the viewing user's character object that exists in the metaverse may be used in the process of determining other users who satisfy selection conditions regarding the relationship between the user and other users. For example, the server device 3 stores in the server storage device 32 position information indicating the position in the metaverse of the broadcasting user's character object and position information indicating the position in the metaverse of the viewing user's character object at predetermined time intervals (e.g., every second).

配信ユーザのユーザ空間がメタバース内に設定されている場合、サーバ装置3は、視聴ユーザのキャラクタオブジェクトが配信ユーザのユーザ空間内に進入するたびに、当該視聴ユーザを示すユーザIDを、進入ユーザIDとしてサーバ記憶装置に記憶する。進入ユーザIDは、配信ユーザを示すユーザID(配信ユーザID)に関連付けて記憶される。例えば、ユーザ空間は、配信ユーザのキャラクタオブジェクトのプライベートな部屋としてメタバース内に設定された空間である。また、ユーザ空間は、配信ユーザのキャラクタオブジェクトが動画配信を行うスタジオとしてメタバース内に設定された空間でもよい。ユーザ空間は、所定のイベントにおいて視聴ユーザが所属するグループの集合場所としてメタバース内に設定された空間でもよい。 When the user space of the broadcasting user is set in the metaverse, the server device 3 stores the user ID indicating the viewing user as an entering user ID in the server storage device each time the character object of the viewing user enters the user space of the broadcasting user. The entering user ID is stored in association with the user ID indicating the broadcasting user (broadcasting user ID). For example, the user space is a space set in the metaverse as a private room of the broadcasting user's character object. The user space may also be a space set in the metaverse as a studio where the broadcasting user's character object broadcasts videos. The user space may also be a space set in the metaverse as a meeting place for a group to which the viewing user belongs at a specified event.

この場合において、まず、ユーザの端末装置2の送信部272は、当該ユーザのユーザ空間に進入した他ユーザの進入ユーザIDの送信要求を示す情報を、当該ユーザのユーザIDとともに端末通信I/F21を介してサーバ装置3に送信する。サーバ装置3のサーバ受信部331は、サーバ通信I/F31を介して、送信要求を示す情報及びユーザのユーザIDを受信すると、受信したユーザのユーザIDに関連付けられた進入ユーザIDを、サーバ記憶装置32から抽出する。そして、サーバ装置3のサーバ送信部332は、抽出された進入ユーザIDを、サーバ通信I/F31を介してユーザの端末装置2に送信する。 In this case, first, the transmitting unit 272 of the user's terminal device 2 transmits information indicating a request to transmit the entering user ID of another user who has entered the user space of the user, together with the user ID of the user, to the server device 3 via the terminal communication I/F 21. When the server receiving unit 331 of the server device 3 receives the information indicating the transmission request and the user ID of the user via the server communication I/F 31, it extracts the entering user ID associated with the received user ID of the user from the server storage device 32. Then, the server transmitting unit 332 of the server device 3 transmits the extracted entering user ID to the user's terminal device 2 via the server communication I/F 31.

ユーザの端末装置2の受信部273は、受信した進入ユーザIDを端末記憶装置22に記憶する。そして、生成部271は、記憶された進入ユーザIDによって示される他ユーザが情報交換グループの所属ユーザである場合、当該進入ユーザIDによって示される他ユーザを、選択条件を満たす他ユーザとして判定する。これにより、生成部271は、メタバース内に設定されたユーザのユーザ空間に進入した他ユーザのキャラクタオブジェクトを含むキャラクタ関連画像を自動的に生成することが可能となる。 The receiving unit 273 of the user's terminal device 2 stores the received entering user ID in the terminal storage device 22. Then, if the other user indicated by the stored entering user ID is a user belonging to an information exchange group, the generating unit 271 determines that the other user indicated by the entering user ID is a other user who satisfies the selection conditions. This enables the generating unit 271 to automatically generate a character-related image including a character object of the other user who has entered the user space of the user set in the metaverse.

以上、本実施形態及びその変形例について詳述したが、本発明は特定の実施例に限定されるものではない。また、本発明の範囲から外れることなく、様々な変更、置換、及び修正を本発明に加えることが可能である。 Although the present embodiment and its modified examples have been described in detail above, the present invention is not limited to the specific examples. Furthermore, various changes, substitutions, and modifications can be made to the present invention without departing from the scope of the present invention.

1 情報処理システム
2 端末装置
21 端末通信I/F
22 端末記憶装置
23 表示装置
24 入力装置
25 撮像装置
26 マイク
27 端末処理装置
271 生成部
272 送信部
273 受信部
274 表示処理部
275 音声出力部
3 サーバ装置
31 サーバ通信I/F
32 サーバ記憶装置
33 サーバ処理装置
331 サーバ受信部
332 サーバ送信部
4 基地局
5 移動体通信網
6 ゲートウェイ
7 インターネット
Reference Signs List 1 Information processing system 2 Terminal device 21 Terminal communication I/F
22 Terminal storage device 23 Display device 24 Input device 25 Imaging device 26 Microphone 27 Terminal processing device 271 Generation unit 272 Transmission unit 273 Reception unit 274 Display processing unit 275 Audio output unit 3 Server device 31 Server communication I/F
32 Server storage device 33 Server processing device 331 Server receiving unit 332 Server transmitting unit 4 Base station 5 Mobile communication network 6 Gateway 7 Internet

Claims (15)

一又は複数のコンピュータプロセッサを備える情報処理システムであって、
前記一又は複数のコンピュータプロセッサが、
第1ユーザを示す第1オブジェクトを含む動画の表示に関する情報を、前記第1ユーザとは異なるユーザの端末装置に送信し、
前記第1ユーザ及び前記一又は複数の第2ユーザを含むユーザグループを設定し、
前記第1オブジェクトに関する関連画像を複数含むグループの中から前記第1ユーザによって選択された前記関連画像の表示に関する情報を、前記ユーザグループに含まれる前記第2ユーザの端末装置に送信すること、
を実行し、
前記一又は複数のコンピュータプロセッサが、
前記第1ユーザによる指示に応じて、前記第1ユーザを示す前記第1オブジェクトと、前記一又は複数の第2ユーザのうちの少なくとも一の第2ユーザを示す第2オブジェクトとを含む新たな関連画像を前記グループに含めること、
を実行することを特徴とする情報処理システム。
An information processing system including one or more computer processors,
the one or more computer processors:
Transmitting information related to display of a video including a first object representing a first user to a terminal device of a user other than the first user;
setting a user group including the first user and the one or more second users;
transmitting information regarding display of the related image selected by the first user from a group including a plurality of related images related to the first object to a terminal device of the second user included in the user group;
Run
the one or more computer processors:
In response to an instruction from the first user, including a new related image including the first object representing the first user and a second object representing at least one second user among the one or more second users into the group;
An information processing system comprising:
前記ユーザグループの設定において、前記一又は複数のコンピュータプロセッサが、前記ユーザグループを複数設定し、
前記関連画像の表示に関する情報の送信において、前記一又は複数のコンピュータプロセッサが、前記少なくとも一の第2ユーザを含む前記関連画像は、前記少なくとも一の第2ユーザを含むユーザグループのみに送信すること、を実行する、請求項1に記載の情報処理システム。
In the setting of the user group, the one or more computer processors set a plurality of the user groups;
The information processing system of claim 1, wherein in transmitting information regarding the display of the related images, the one or more computer processors execute the step of transmitting the related images including the at least one second user only to a user group including the at least one second user.
前記新たな関連画像には、前記第1ユーザによって選択された一又は複数の前記第2ユーザを示す前記第2オブジェクトが含まれる、請求項1又は2に記載の情報処理システム。 The information processing system according to claim 1 or 2, wherein the new related image includes the second object representing one or more of the second users selected by the first user. 前記一又は複数のコンピュータプロセッサが、一又は複数の前記第2ユーザを選択すること、を実行し、
前記新たな関連画像には、選択された前記一又は複数の前記第2ユーザを示す前記第2オブジェクトが含まれる、請求項1又は2に記載の情報処理システム。
selecting, by the one or more computer processors, one or more of the second users;
The information processing system according to claim 1 , wherein the new related image includes the second object indicating the selected one or more second users.
前記一又は複数の前記第2ユーザの選択において、前記一又は複数のコンピュータプロセッサが、前記ユーザグループに含まれるユーザ間のチャットにおいて各第2ユーザが直近に送信した情報のうち、送信時が現時点から近い順に前記情報を送信した前記一又は複数の前記第2ユーザを選択すること、を実行する、請求項4に記載の情報処理システム。 The information processing system according to claim 4, wherein in selecting the one or more second users, the one or more computer processors select the one or more second users who have sent information most recently from information sent by each second user in a chat between users included in the user group in order of the time of sending the information from the current time. 前記一又は複数の前記第2ユーザの選択において、前記一又は複数のコンピュータプロセッサが、前記ユーザグループに含まれるユーザ間のチャット画面が端末装置に表示された時点が現時点から近い前記一又は複数の前記第2ユーザを選択すること、を実行する、請求項4に記載の情報処理システム。 The information processing system according to claim 4, wherein in the selection of the one or more second users, the one or more computer processors select the one or more second users for whom a chat screen between users included in the user group was displayed on a terminal device at a time closest to the current time. 前記一又は複数の前記第2ユーザの選択において、前記一又は複数のコンピュータプロセッサが、前記第1ユーザと所定の関係を有する前記一又は複数の前記第2ユーザを選択すること、を実行する、請求項4に記載の情報処理システム。 The information processing system according to claim 4, wherein in selecting the one or more second users, the one or more computer processors select the one or more second users who have a predetermined relationship with the first user. 前記第1ユーザと前記所定の関係を有する前記第2ユーザは、前記第1ユーザと一対一の情報交換をしたことがあるユーザである、請求項7に記載の情報処理システム。 The information processing system according to claim 7, wherein the second user having the predetermined relationship with the first user is a user who has had one-to-one information exchange with the first user. 前記第1ユーザと前記所定の関係を有する前記第2ユーザは、前記第1ユーザを示す第1オブジェクトを含む動画の表示に関する情報を受信した端末装置のユーザである、請求項7に記載の情報処理システム。 The information processing system according to claim 7, wherein the second user having the predetermined relationship with the first user is a user of a terminal device that receives information regarding the display of a video including a first object representing the first user. 前記第1ユーザと前記所定の関係を有する前記第2ユーザは、前記第1ユーザによってフォローされているユーザ、又は、前記第1ユーザと相互フォローの関係にあるユーザである、請求項7に記載の情報処理システム。 The information processing system according to claim 7, wherein the second user having the predetermined relationship with the first user is a user followed by the first user or a user having a mutual follow relationship with the first user. 前記第1ユーザと前記所定の関係を有する前記第2ユーザは、前記第1ユーザと同一のイベントに参加したユーザ又は前記第1ユーザとともに同一ゲームに参加したユーザである、請求項7に記載の情報処理システム。 The information processing system according to claim 7, wherein the second user having the predetermined relationship with the first user is a user who participated in the same event as the first user or a user who participated in the same game as the first user. 前記一又は複数のコンピュータプロセッサが、
前記ユーザグループに含まれるユーザ間の情報交換に参加している前記第2ユーザの数が所定数に達したことに応じて、前記所定数の前記第2ユーザを選択し、
選択された前記所定数の前記第2ユーザを示す前記第2オブジェクトを含む前記新たな関連画像を生成すること、
を実行する、請求項1又は2に記載の情報処理システム。
the one or more computer processors:
selecting a predetermined number of the second users in response to a number of the second users participating in an information exchange between users included in the user group reaching a predetermined number;
generating the new related image including the second objects representing the selected number of the second users;
The information processing system according to claim 1 or 2, further comprising:
前記新たな関連画像は、前記第1オブジェクト及び前記第2オブジェクトとは異なる、キャラクタ関連画像のデザインに関する第3オブジェクトを含み、前記第3オブジェクトに対応するポーズの前記第1オブジェクト及び前記第2オブジェクトを含む、請求項1又は2に記載の情報処理システム。 The information processing system according to claim 1 or 2, wherein the new related image includes a third object related to a design of the character-related image that is different from the first object and the second object, and includes the first object and the second object in a pose that corresponds to the third object. 一又は複数のコンピュータプロセッサを備える情報処理システムの制御方法であって、
前記一又は複数のコンピュータプロセッサが、
第1ユーザを示す第1オブジェクトを含む動画の表示に関する情報を、前記第1ユーザとは異なるユーザの端末装置に送信し、
前記第1ユーザ及び前記一又は複数の第2ユーザを含むユーザグループを設定し、
前記第1オブジェクトに関する関連画像を複数含むグループの中から前記第1ユーザによって選択された前記関連画像の表示に関する情報を、前記ユーザグループに含まれる前記第2ユーザの端末装置に送信すること、
を含み、
前記一又は複数のコンピュータプロセッサが、
前記第1ユーザによる指示に応じて、前記第1ユーザを示す前記第1オブジェクトと、前記一又は複数の第2ユーザのうちの少なくとも一の第2ユーザを示す第2オブジェクトとを含む新たな関連画像を前記グループに含めること、
を含む制御方法。
A method for controlling an information processing system having one or more computer processors, comprising:
the one or more computer processors:
Transmitting information related to display of a video including a first object representing a first user to a terminal device of a user other than the first user;
setting a user group including the first user and the one or more second users;
transmitting information regarding display of the related image selected by the first user from a group including a plurality of related images related to the first object to a terminal device of the second user included in the user group;
Including,
the one or more computer processors:
In response to an instruction from the first user, including a new related image including the first object representing the first user and a second object representing at least one second user among the one or more second users into the group;
A control method comprising:
第1ユーザの第1端末装置と一又は複数の第2ユーザの第2端末装置と通信するサーバ装置であって、
前記第1端末装置から送信された、前記第1ユーザを示す第1オブジェクトを含む動画の表示に関する情報を受信し、
前記第1端末装置から受信した前記動画の表示に関する情報を、前記第1ユーザとは異なるユーザの端末装置に送信し、
前記第1ユーザ及び前記一又は複数の第2ユーザを含むユーザグループを設定し、
前記第1端末装置から送信された、前記第1オブジェクトに関する関連画像を複数含むグループの中から前記第1ユーザによって選択された前記関連画像の表示に関する情報を受信し、
前記関連画像の表示に関する情報を前記第2端末装置に送信する、処理部
を備え、
前記第1ユーザによる指示に応じて、前記第1ユーザを示す前記第1オブジェクトと、前記一又は複数の第2ユーザのうちの少なくとも一の第2ユーザを示す第2オブジェクトとを含む新たな関連画像が前記グループに含まれる、
ことを特徴とするサーバ装置。
A server device that communicates with a first terminal device of a first user and one or more second terminal devices of a second user,
receiving information regarding a display of a video including a first object representing the first user, the information being transmitted from the first terminal device;
Transmitting information regarding the display of the video received from the first terminal device to a terminal device of a user different from the first user;
setting a user group including the first user and the one or more second users;
receiving information regarding display of the related image selected by the first user from a group including a plurality of related images related to the first object, the information being transmitted from the first terminal device;
a processing unit configured to transmit information regarding the display of the related image to the second terminal device;
In response to an instruction by the first user, a new related image including the first object representing the first user and a second object representing at least one second user among the one or more second users is included in the group.
A server device comprising:
JP2023129811A 2022-09-27 2023-08-09 Information processing system, control method, and server device Pending JP2024052539A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2023129811A JP2024052539A (en) 2022-09-30 2023-08-09 Information processing system, control method, and server device
US18/373,835 US20240106778A1 (en) 2022-09-27 2023-09-27 Information processing system, control method, and server device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022158666A JP7335572B1 (en) 2022-09-30 2022-09-30 Information processing system, control method, and server device
JP2023129811A JP2024052539A (en) 2022-09-30 2023-08-09 Information processing system, control method, and server device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2022158666A Division JP7335572B1 (en) 2022-09-27 2022-09-30 Information processing system, control method, and server device

Publications (1)

Publication Number Publication Date
JP2024052539A true JP2024052539A (en) 2024-04-11

Family

ID=90623385

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023129811A Pending JP2024052539A (en) 2022-09-27 2023-08-09 Information processing system, control method, and server device

Country Status (1)

Country Link
JP (1) JP2024052539A (en)

Similar Documents

Publication Publication Date Title
US10097492B2 (en) Storage medium, communication terminal, and display method for enabling users to exchange messages
WO2020138107A1 (en) Video streaming system, video streaming method, and video streaming program for live streaming of video including animation of character object generated on basis of motion of streaming user
US11750873B2 (en) Video distribution device, video distribution method, and video distribution process
US20160231878A1 (en) Communication system, communication terminal, storage medium, and display method
JP2021149407A (en) Information process system, information processing method, and computer program
US20220297006A1 (en) Program, method, and terminal device
US20240013502A1 (en) Storage medium, method, and information processing apparatus
JP7454164B2 (en) Terminal device control program, terminal device control method, terminal device, server device control method, method executed by one or more processors, and distribution system
JP7335572B1 (en) Information processing system, control method, and server device
JP7421762B1 (en) Information processing system, control method, and server device
JP7410525B1 (en) Information processing system, control method, and server device
JP2024052539A (en) Information processing system, control method, and server device
US20240106778A1 (en) Information processing system, control method, and server device
JP7312975B1 (en) Terminal device control program, terminal device, terminal device control method, server device control program, server device, and server device control method
JP7333529B1 (en) Terminal device control program, terminal device, terminal device control method, server device control program, server device, and server device control method
US20230298240A1 (en) Control program for terminal device, terminal device, control method for terminal device, control program for server device, server device, and control method for server device
JP7398069B2 (en) Terminal device control program, terminal device, terminal device control method, server device control program, server device, and server device control method
US20230298294A1 (en) Control program of terminal device, terminal device, method of controlling terminal device, control program of server device, server device, and method of controlling server device
JP6055151B1 (en) System, method, and program for managing events
JP7265085B1 (en) Information processing system, information processing method, and program
US20240152311A1 (en) Information processing system, information processing method, and computer program
JP2024016015A (en) Program, information processing method, and information processing device
WO2019095131A1 (en) Call method, client, and storage medium