JP2024089379A - Information processing system, information processing method, and program - Google Patents

Information processing system, information processing method, and program Download PDF

Info

Publication number
JP2024089379A
JP2024089379A JP2022204711A JP2022204711A JP2024089379A JP 2024089379 A JP2024089379 A JP 2024089379A JP 2022204711 A JP2022204711 A JP 2022204711A JP 2022204711 A JP2022204711 A JP 2022204711A JP 2024089379 A JP2024089379 A JP 2024089379A
Authority
JP
Japan
Prior art keywords
user
option
options
response
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022204711A
Other languages
Japanese (ja)
Other versions
JP7265085B1 (en
Inventor
暁彦 白井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2022204711A priority Critical patent/JP7265085B1/en
Priority to JP2023065636A priority patent/JP2024089598A/en
Application granted granted Critical
Publication of JP7265085B1 publication Critical patent/JP7265085B1/en
Priority to US18/214,927 priority patent/US20240214485A1/en
Publication of JP2024089379A publication Critical patent/JP2024089379A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

【課題】ユーザ間のチャット形式のコミュニケーションに係る処理負荷を低減する。【解決手段】サーバ装置と、1つ以上の端末装置とがネットワークを介して接続されるチャット関連支援システムにおいて、端末装置20は、送信側から送信される送信内容を取得する送信内容取得部261と、送信内容に対する受信側からの返信内容に関する複数の選択肢を生成する選択肢生成部262とを備え、複数の選択肢は、電子機器を介して視認可能な仮想空間内の移動先に対応付けられた第1選択肢を含み、送信内容及び返信内容は、複数のユーザ間のチャット形式のコミュニケーションに関し、一のチャットにおいて移動先は、送信内容に基づいて決定される。【選択図】図13[Problem] To reduce the processing load related to chat-style communication between users. [Solution] In a chat-related support system in which a server device and one or more terminal devices are connected via a network, a terminal device 20 includes a transmission content acquisition unit 261 that acquires transmission content sent from the sending side, and an option generation unit 262 that generates a plurality of options related to reply content from the receiving side to the transmission content, the plurality of options including a first option associated with a destination in a virtual space visible via an electronic device, the transmission content and reply content relate to chat-style communication between a plurality of users, and in one chat, the destination is determined based on the transmission content. [Selected Figure] Figure 13

Description

本開示は、情報処理システム、情報処理方法、及びプログラムに関する。 This disclosure relates to an information processing system, an information processing method, and a program.

携帯端末機の送信側においてキャラクタイメージで表示できる情報を含む文字メッセージを生成伝送し、受信側において受信される文字メッセージを分析した後、キャラクタイメージ表示用情報を含むと、該当するキャラクタイメージと共に文字メッセージを視覚的に表示する技術が知られている。 A technology is known in which a text message containing information that can be displayed as a character image is generated and transmitted on the transmitting side of a mobile terminal, and the text message received on the receiving side is analyzed, and if it contains information for displaying a character image, the text message is visually displayed together with the corresponding character image.

特開2005-196780号公報JP 2005-196780 A

しかしながら、上記のような従来技術では、ユーザ間のチャット形式のコミュニケーションを比較的低い処理負荷で支援することが難しい。 However, with conventional technologies such as those described above, it is difficult to support chat-style communication between users with a relatively low processing load.

そこで、1つの側面では、本開示は、ユーザ間のチャット形式のコミュニケーションに係る処理負荷を低減することを目的とする。 Therefore, in one aspect, the present disclosure aims to reduce the processing load associated with chat-style communication between users.

1つの側面では、複数のユーザ間のチャット形式のコミュニケーションに係る情報処理を行う情報処理システムであって、
送信側から送信される送信内容を取得する取得部と、
前記送信内容に対する受信側からの返信内容に関する複数の選択肢を生成する選択肢生成部とを備え
前記複数の選択肢は、電子機器を介して視認可能な仮想空間内の移動先に対応付けられた第1選択肢を含み、
一のチャットにおいて前記移動先は、前記送信内容に基づいて決定される、情報処理システムが提供される。
According to one aspect, there is provided an information processing system for processing information related to chat-style communication between a plurality of users, the information processing system comprising:
An acquisition unit that acquires transmission contents transmitted from a transmitting side;
an option generating unit that generates a plurality of options regarding a reply content from a receiving side in response to the transmitted content, the plurality of options including a first option associated with a destination in a virtual space visible through an electronic device,
An information processing system is provided in which the destination in one chat is determined based on the transmitted content.

1つの側面では、本開示によれば、ユーザ間のチャット形式のコミュニケーションに係る処理負荷を低減することが可能となる。 In one aspect, the present disclosure makes it possible to reduce the processing load associated with chat-style communication between users.

本実施形態に係るチャット関連支援システムのブロック図である。1 is a block diagram of a chat-related support system according to an embodiment of the present invention. 本開示に従ったコンピュータベースのオペレーションを実行する処理回路のブロック図である。FIG. 1 is a block diagram of processing circuitry for performing computer-based operations according to the present disclosure. ヘッドマウントディスプレイを介して視認可能な端末用画像の説明図である。FIG. 2 is an explanatory diagram of a terminal image viewable through a head mounted display. スマートフォンを介して視認できる端末用画像の説明図である。FIG. 11 is an explanatory diagram of a terminal image viewable via a smartphone. メタバース空間に対する多様なアクセス方法の説明図である。FIG. 1 is an explanatory diagram of various methods of accessing a metaverse space. ある一のユーザに関して、午前0時から24時までの利用デバイスの時系列の一例を示す図である。FIG. 13 is a diagram showing an example of a time series of devices used by a certain user from midnight to midnight. ユーザの状態と利用デバイスの時系列の一例を示す図である。FIG. 11 is a diagram showing an example of a time series of a user's state and a device used. 一のユーザからの送信内容に対する他の各ユーザの返信内容に関する複数の選択肢の提示されている様子を概念的に示す図(その1)である。FIG. 11 is a diagram (part 1) conceptually illustrating a state in which a plurality of options are presented regarding reply content from each of the other users in response to content transmitted from one user. 一のユーザからの送信内容に対する他の各ユーザの返信内容に関する複数の選択肢の提示されている様子を概念的に示す図(その2)である。FIG. 2 is a diagram (part 2) conceptually illustrating a state in which a plurality of options are presented regarding reply content from each of the other users in response to content transmitted from one user. 移動関連処理の説明図であって、複数の選択肢に関連した説明図(その1)である。FIG. 11 is an explanatory diagram of a movement-related process, and is an explanatory diagram (part 1) relating to a plurality of options. 移動関連処理の説明図であって、複数の選択肢に関連した説明図(その2)である。FIG. 11 is an explanatory diagram of a movement-related process, and is an explanatory diagram (part 2) relating to a plurality of options. 選択肢関連機能に関連したサーバ装置の機能ブロック図の一例である。FIG. 13 is an example of a functional block diagram of a server device related to an option-related function. ユーザ情報記憶部内のデータの説明図である。FIG. 4 is an explanatory diagram of data in a user information storage unit. アバター情報記憶部内のデータの説明図である。FIG. 2 is an explanatory diagram of data in an avatar information storage unit. 選択肢関連機能に関連した一の端末装置の機能ブロック図の一例である。FIG. 11 is an example of a functional block diagram of a terminal device related to an option-related function.

以下、添付図面を参照しながら各実施形態について詳細に説明する。なお、添付図面では、見易さのために、複数存在する同一属性の部位には、一部しか参照符号が付されていない場合がある。 Each embodiment will be described in detail below with reference to the attached drawings. Note that in the attached drawings, for ease of viewing, only some of the reference symbols may be assigned to multiple parts with the same attribute.

図1を参照して、一実施形態に係るチャット関連支援システム1の概要について説明する。図1は、本実施形態に係るチャット関連支援システム1のブロック図である。図2は、ヘッドマウントディスプレイを介して視認可能な端末用画像の説明図である。図3は、スマートフォンを介して視認可能な端末用画像の説明図である。 With reference to FIG. 1, an overview of a chat-related support system 1 according to one embodiment will be described. FIG. 1 is a block diagram of the chat-related support system 1 according to this embodiment. FIG. 2 is an explanatory diagram of a terminal image viewable through a head-mounted display. FIG. 3 is an explanatory diagram of a terminal image viewable through a smartphone.

チャット関連支援システム1は、サーバ装置10と、1つ以上の端末装置20と、を備える。図1では簡便のため、3つの端末装置20を図示しているが、端末装置20の数は2つ以上であればよい。 The chat-related support system 1 includes a server device 10 and one or more terminal devices 20. For simplicity, three terminal devices 20 are illustrated in FIG. 1, but the number of terminal devices 20 may be two or more.

サーバ装置10は、例えば1つ以上の仮想現実を提供する運営者が管理するサーバ等の情報処理システムである。端末装置20は、例えば携帯電話、スマートフォン、タブレット端末、PC(Personal Computer)、ヘッドマウントディスプレイ、又はゲーム装置等の、ユーザによって使用される装置である。端末装置20は、典型的にはユーザごとに異なる態様で、複数がサーバ装置10にネットワーク3を介して接続されうる。 The server device 10 is, for example, an information processing system such as a server managed by an operator that provides one or more virtual realities. The terminal device 20 is, for example, a device used by a user, such as a mobile phone, a smartphone, a tablet terminal, a PC (Personal Computer), a head-mounted display, or a game device. A plurality of terminal devices 20 can be connected to the server device 10 via the network 3, typically in a different manner for each user.

端末装置20は、本実施形態に係る仮想現実アプリケーションを実行可能である。仮想現実アプリケーションは、ネットワーク3を介してサーバ装置10や所定のアプリケーション配信サーバから端末装置20に受信されてもよく、あるいは端末装置20に備えられた記憶装置又は端末装置20が読取可能なメモリカード等の記憶媒体にあらかじめ記憶されていてもよい。サーバ装置10及び端末装置20は、ネットワーク3を介して通信可能に接続される。例えば、サーバ装置10及び端末装置20が協動して、仮想現実に関する多様な処理を実行する。 The terminal device 20 is capable of executing a virtual reality application according to this embodiment. The virtual reality application may be received by the terminal device 20 from the server device 10 or a predetermined application distribution server via the network 3, or may be stored in advance in a storage device provided in the terminal device 20 or a storage medium such as a memory card readable by the terminal device 20. The server device 10 and the terminal device 20 are connected to each other via the network 3 so as to be able to communicate with each other. For example, the server device 10 and the terminal device 20 cooperate to execute various processes related to virtual reality.

各端末装置20は、サーバ装置10を介して互いに通信可能に接続されている。なお、以下では、「一の端末装置20が情報を他の端末装置20に送信する」とは、「一の端末装置20が情報をサーバ装置10を介して他の端末装置20に送信する」ことを意味する。同様に、「一の端末装置20が情報を他の端末装置20から受信する」とは、「一の端末装置20が情報をサーバ装置10を介して他の端末装置20から受信する」ことを意味する。ただし、変形例では、各端末装置20は、サーバ装置10を介さずに通信可能に接続されてもよい。 The terminal devices 20 are connected to each other so that they can communicate with each other via the server device 10. In the following, "one terminal device 20 transmits information to another terminal device 20" means "one terminal device 20 transmits information to another terminal device 20 via the server device 10". Similarly, "one terminal device 20 receives information from another terminal device 20" means "one terminal device 20 receives information from another terminal device 20 via the server device 10". However, in a modified example, each terminal device 20 may be connected to each other so that they can communicate with each other without going through the server device 10.

なお、ネットワーク3は、無線通信網や、インターネット、VPN(Virtual Private Network)、WAN(Wide Area Network)、有線ネットワーク、又はこれらの任意の組み合わせ等を含んでよい。 The network 3 may include a wireless communication network, the Internet, a Virtual Private Network (VPN), a Wide Area Network (WAN), a wired network, or any combination of these.

以下では、チャット関連支援システム1が、情報処理システムの一例を実現するが、特定の一の端末装置20の各要素(図1の端末通信部21から端末制御部25参照)が、情報処理システムの一例を実現してもよいし、複数の端末装置20が、協動して情報処理システムの一例を実現してもよい。また、サーバ装置10が単独で、情報処理システムの一例を実現してもよいし、サーバ装置10と1つ以上の端末装置20が、協動して情報処理システムの一例を実現してもよい。 In the following, the chat-related support system 1 realizes an example of an information processing system, but each element of a specific terminal device 20 (see the terminal communication unit 21 to the terminal control unit 25 in FIG. 1) may realize an example of an information processing system, or multiple terminal devices 20 may cooperate to realize an example of an information processing system. Also, the server device 10 may independently realize an example of an information processing system, or the server device 10 and one or more terminal devices 20 may cooperate to realize an example of an information processing system.

ここで、本実施形態に係る仮想現実の概要について説明する。本実施形態に係る仮想現実は、例えば教育、旅行、ロールプレイング、シミュレーション、ゲームやコンサートのようなエンターテイメント等、任意の現実に対する仮想現実等であって、仮想現実の実行に伴い、アバターのような仮想現実媒体が用いられる。例えば、本実施形態に係る仮想現実は、3次元の仮想空間と、当該仮想空間内に登場する各種の仮想現実媒体と、当該仮想空間内で提供される各種のコンテンツとにより実現されてよい。 Here, an overview of the virtual reality according to this embodiment will be described. The virtual reality according to this embodiment is a virtual reality for any reality, such as education, travel, role-playing, simulation, and entertainment such as games and concerts, and a virtual reality medium such as an avatar is used in conjunction with the execution of the virtual reality. For example, the virtual reality according to this embodiment may be realized by a three-dimensional virtual space, various virtual reality media that appear within the virtual space, and various contents provided within the virtual space.

仮想現実媒体は、仮想現実に使用される電子データであり、例えば、カード、アイテム、ポイント、サービス内通貨(又は仮想現実内通貨)、トークン(例えばNon-Fungible Token(NFT))、チケット、キャラクタ、アバター、パラメータ等、任意の媒体を含む。また、仮想現実媒体は、レベル情報、ステータス、パラメータ情報(体力値及び攻撃力等)又は能力情報(スキル、アビリティ、呪文、ジョブ等)のような、仮想現実関連情報であってもよい。また、仮想現実媒体は、ユーザによって仮想現実内で取得、所有、使用、管理、交換、合成、強化、売却、廃棄、又は贈与等され得る電子データであるが、仮想現実媒体の利用態様は本明細書で明示されるものに限られない。 The virtual reality medium is electronic data used in virtual reality, and includes any medium, such as cards, items, points, in-service currency (or in-virtual reality currency), tokens (e.g., Non-Fungible Token (NFT)), tickets, characters, avatars, parameters, etc. The virtual reality medium may also be virtual reality-related information, such as level information, status, parameter information (stamina value and attack power, etc.), or ability information (skills, abilities, spells, jobs, etc.). The virtual reality medium is electronic data that can be acquired, owned, used, managed, exchanged, synthesized, enhanced, sold, discarded, or donated by a user in virtual reality, but the manner of use of the virtual reality medium is not limited to those explicitly stated in this specification.

なお、アバターは、典型的には、正面方向を有するキャラクタの形態であり、人や動物又はその類の形態を有してよい。アバターは、各種アバターアイテムに対応付けられることで、多様な容姿(描画されたときの容姿)を有することができる。また、以下では、アバターの性質上、ユーザとアバターとは同一視して説明する場合がある。従って、例えば、「一のアバターが〇〇する」は、「一のユーザが〇〇する」と同義である場合がある。 Note that an avatar is typically in the form of a character facing forward, and may have the form of a human, animal, or similar. Avatars can have a variety of appearances (appearance when drawn) by being associated with various avatar items. In the following, due to the nature of avatars, the user and the avatar may be considered to be the same in the description. Therefore, for example, "an avatar does ____" may be synonymous with "a user does ____."

また、本明細書において、用語「対応付け」とは、直接的な対応付けのみならず、間接的な対応付けをも含む。例えば、要素Aに要素Bが対応付けられている状態は、要素Aに要素Bが対応付けられている状態のみならず、要素Aに要素Cが対応付けられかつ要素Cに要素Bが対応付けられている状態をも含む概念である。 In addition, in this specification, the term "association" includes not only direct association but also indirect association. For example, a state in which element A is associated with element B is a concept that includes not only a state in which element A is associated with element B, but also a state in which element A is associated with element C and element C is associated with element B.

ユーザは、頭部又は顔の一部に装着型装置を装着し、当該装着型装置を介して仮想空間を視認してよい。なお、装着型装置は、ヘッドマウントディスプレイやメガネ型装置であってもよい。メガネ型装置は、いわゆるAR(Augmented Reality)グラスやMR(Mixed Reality)グラスであってよい。いずれの場合でも、装着型装置は、端末装置20とは別であってもよいし、端末装置20の一部又は全部の機能を実現してもよい。端末装置20は、ヘッドマウントディスプレイにより実現されてよい。 The user may wear a wearable device on his/her head or part of his/her face, and view the virtual space through the wearable device. The wearable device may be a head-mounted display or a glasses-type device. The glasses-type device may be so-called AR (Augmented Reality) glasses or MR (Mixed Reality) glasses. In either case, the wearable device may be separate from the terminal device 20, or may realize some or all of the functions of the terminal device 20. The terminal device 20 may be realized by a head-mounted display.

図1Aは、本開示に従ったコンピュータベースのオペレーションを実行する処理回路600のブロック図である。以下で説明する処理回路600は、図1に示すサーバ装置10のサーバ通信部11からサーバ制御部13を実現するハードウェア構成として好適である。また、以下で説明する処理回路600は、図1に示す端末装置20の端末通信部21、端末記憶部22、及び端末制御部25を実現するハードウェア構成として好適である。 FIG. 1A is a block diagram of a processing circuit 600 that executes computer-based operations according to the present disclosure. The processing circuit 600 described below is suitable as a hardware configuration that realizes the server communication unit 11 to the server control unit 13 of the server device 10 shown in FIG. 1. The processing circuit 600 described below is also suitable as a hardware configuration that realizes the terminal communication unit 21, the terminal storage unit 22, and the terminal control unit 25 of the terminal device 20 shown in FIG. 1.

処理回路600は、任意のコンピュータベースおよびクラウドベースの制御プロセスを制御するために使用され、フローチャートにおける記述またはブロックは、プロセスにおける特定の論理機能またはステップを実装するための1つまたは複数の実行可能命令を含むコードのモジュール、セグメントまたは部分を表すものとして理解することができ、代替実装は、当業者に理解されるように、関連する機能性に応じて実質的に同時または逆順など図示または議論した順序とは異なる順序で機能を実行することができる本先端の例示的実施形態範囲内に含まれる。本明細書に開示された要素の機能は、開示された機能を実行するように構成またはプログラムされた汎用プロセッサ、特殊目的プロセッサ、集積回路、ASIC(Application Specific Integrated Circuits)、従来の回路および/またはそれらの組み合わせを含み得る回路または処理回路を使用して実装され得る。プロセッサは、その中にトランジスタ及び他の回路を含むので、処理回路又は回路である。プロセッサは、メモリ602に格納されたプログラムを実行するプログラムされたプロセッサであってよい。本開示において、処理回路、ユニット、または手段は、言及された機能を実行する、または実行するようにプログラムされたハードウェアである。ハードウェアは、本明細書に開示された、またはそうでなければ公知の、言及された機能を実行するようにプログラムされるか構成される任意のハードウェアであってよい。 The processing circuit 600 can be used to control any computer-based and cloud-based control process, and the descriptions or blocks in the flowcharts can be understood as representing modules, segments, or portions of code that include one or more executable instructions for implementing a particular logical function or step in the process, and alternative implementations are included within the scope of the exemplary embodiments of the present tip that can perform functions in a different order than that shown or discussed, such as substantially simultaneously or in reverse order, depending on the functionality involved, as will be understood by those skilled in the art. The functions of the elements disclosed herein can be implemented using circuits or processing circuits that may include general-purpose processors, special-purpose processors, integrated circuits, ASICs (Application Specific Integrated Circuits), conventional circuits, and/or combinations thereof, configured or programmed to perform the disclosed functions. A processor is a processing circuit or circuit, since it includes transistors and other circuits therein. A processor may be a programmed processor that executes a program stored in memory 602. In this disclosure, a processing circuit, unit, or means is hardware that performs or is programmed to perform the functions mentioned. The hardware may be any hardware disclosed herein or otherwise known that is programmed or configured to perform the functions referred to.

なお、図1Aでは、処理回路600は、バス628を介して接続されるディスプレイコントローラ606、ストレージコントローラ624、ネットワークコントローラ702、メモリ602、I/Oインターフェース612等が接続されている。この場合、処理回路600は、ディスプレイコントローラ606を介してディスプレイ609に接続され、I/Oインターフェース612を介して、キーボードやマウス614、タッチスクリーン616、周辺装置618に接続されている。また、処理回路600は、ネットワークコントローラ702を介してネットワーク3にアクセスする。 In FIG. 1A, the processing circuit 600 is connected to a display controller 606, a storage controller 624, a network controller 702, a memory 602, an I/O interface 612, and the like, which are connected via a bus 628. In this case, the processing circuit 600 is connected to a display 609 via the display controller 606, and is connected to a keyboard, mouse 614, a touch screen 616, and peripheral devices 618 via the I/O interface 612. The processing circuit 600 also accesses the network 3 via the network controller 702.

図1Aにおいて、処理回路600は、本開示で議論される制御プロセスのうちの1つ以上を実行するCPU601を含む。処理データおよび命令は、メモリ602に格納されてもよい。また、これらのプロセスおよび命令は、ハードディスクドライブ(HDD)または可搬型記憶媒体などの記憶媒体ディスク604(図1Aでは、「ディスク」と表記)に格納されてもよいし、リモートで格納されてもよい。さらに、本開示プロセスの命令が格納されるコンピュータ可読媒体の形態は任意である。例えば、命令は、CD、DVD、処理回路600が通信する情報処理装置のFLASHメモリ、RAM、ROM、PROM、EPROM、EEPROM、ハードディスクまたは他の非一時的コンピュータ可読媒体、例えばサーバまたはコンピュータに格納されてもよい。また、プロセスは、ネットワークベースのストレージ、クラウドベースのストレージ、または他のモバイルアクセス可能なストレージに格納され、処理回路600によって実行可能であってもよい。 In FIG. 1A, the processing circuit 600 includes a CPU 601 that executes one or more of the control processes discussed in this disclosure. Process data and instructions may be stored in memory 602. These processes and instructions may also be stored on a storage medium disk 604 (in FIG. 1A, labeled "disk"), such as a hard disk drive (HDD) or a portable storage medium, or may be stored remotely. Furthermore, the form of the computer-readable medium on which the instructions of the disclosed processes are stored is arbitrary. For example, the instructions may be stored on a CD, DVD, FLASH memory, RAM, ROM, PROM, EPROM, EEPROM, hard disk, or other non-transitory computer-readable medium of an information processing device with which the processing circuit 600 communicates, such as a server or computer. The processes may also be stored in network-based storage, cloud-based storage, or other mobile-accessible storage and executable by the processing circuit 600.

さらに、各種プロセス等は、CPU601と、Microsoft Windows(登録商標)、UNIX(登録商標)、Solaris(登録商標)、LINUX(登録商標)、Apple(登録商標)、MAC-OS(登録商標)、Apple iOS(登録商標)および当業者に知られている他のシステムなどのオペレーティングシステムと連携して実行するユーティリティアプリケーション、バックグラウンドデーモン、またはオペレーティングシステムのコンポーネント、またはその組み合わせとして提供されてもよい。 Furthermore, the various processes, etc. may be provided as utility applications, background daemons, or operating system components, or combinations thereof, that execute in conjunction with the CPU 601 and an operating system, such as Microsoft Windows (registered trademark), UNIX (registered trademark), Solaris (registered trademark), LINUX (registered trademark), Apple (registered trademark), MAC-OS (registered trademark), Apple iOS (registered trademark), and other systems known to those skilled in the art.

処理回路600を実現するためのハードウェア要素は、様々な回路要素によって実現され得る。さらに、上述した実施形態の各機能は、1つまたは複数の処理回路を含む回路によって実現されてもよい。処理回路は、特にプログラムされたプロセッサ、例えば、図1Aに示すように、プロセッサ(CPU)601を含む。処理回路はまた、言及された機能を実行するために配置された特定用途向け集積回路(ASIC)および従来の回路構成要素のようなデバイスを含む。 The hardware elements for implementing the processing circuit 600 may be implemented by various circuit elements. Furthermore, each function of the above-described embodiments may be implemented by a circuit including one or more processing circuits. The processing circuit includes a specifically programmed processor, for example, as shown in FIG. 1A, processor (CPU) 601. The processing circuit also includes devices such as application specific integrated circuits (ASICs) and conventional circuit components arranged to perform the functions mentioned.

図1Aにおいて、処理回路600は、コンピュータまたは特定の特別な目的の機械であってもよい。処理回路600は、実装される装置(サーバ装置10や端末装置20)を制御するための処理を実行するようにプログラムされている。 In FIG. 1A, the processing circuit 600 may be a computer or a specific special purpose machine. The processing circuit 600 is programmed to execute processes for controlling the device in which it is implemented (server device 10 or terminal device 20).

代替的に、または追加的に、CPU601は、当業者であれば認識するように、FPGA(Field Programmable Gate Array)、ASIC、PLD(Programmable Logic Device)上に実装されてもよいし、ディスクリート論理回路を使用して実装されてもよい。さらに、CPU601は、各種プロセスの命令を実行するために、並行して協調的に動作する複数のプロセッサとして実装されてもよい。 Alternatively or additionally, CPU 601 may be implemented on a Field Programmable Gate Array (FPGA), an ASIC, a Programmable Logic Device (PLD), or using discrete logic circuitry, as will be appreciated by those skilled in the art. Furthermore, CPU 601 may be implemented as multiple processors operating in parallel and in coordination to execute instructions for various processes.

図1Aの処理回路600は、また、ネットワーク3とインターフェースするための、イーサネットPROネットワークインタフェースカードなどのネットワークコントローラ702を含む。理解できるように、ネットワーク3は、インターネットなどの公衆ネットワーク、またはローカルエリアネットワーク(LAN)もしくはワイドエリアネットワーク(WAN)などのプライベートネットワーク、またはそれらの任意の組み合わせとすることができ、公衆交換電話網(PSTN:Public Switched Telephone Network)または統合サービスデジタルネットワーク(ISDN:Integrated Services Digital Network)、サブネットワークも含むことができる。ネットワーク3は、また、イーサネット(Ethernet)のような有線LANネットワーク、ユニバーサルシリアルバス(USB:Universal Serial Bus)ケーブルなどの有線とすることができ、またはEDGE、3G、4G及び5G無線セルラーシステムを含むセルラーネットワークなどの無線とすることができる。また、無線ネットワークは、Wi-Fi(登録商標)、無線LAN、Bluetooth(登録商標)、または公知の他の無線通信形態とすることができる。さらに、ネットワークコントローラ702は、Bluetooth(登録商標)、近距離無線通信(NFC)、赤外線などの他の直接通信規格に準拠することができる。 The processing circuit 600 of FIG. 1A also includes a network controller 702, such as an Ethernet PRO network interface card, for interfacing with the network 3. As can be appreciated, the network 3 can be a public network, such as the Internet, or a private network, such as a local area network (LAN) or a wide area network (WAN), or any combination thereof, including a public switched telephone network (PSTN) or an integrated services digital network (ISDN), sub-network. The network 3 can also be wired, such as a wired LAN network, such as an Ethernet, a Universal Serial Bus (USB) cable, or wireless, such as a cellular network, including EDGE, 3G, 4G, and 5G wireless cellular systems. Additionally, the wireless network can be Wi-Fi (registered trademark), wireless LAN, Bluetooth (registered trademark), or other forms of wireless communication known in the art. Additionally, the network controller 702 can be compliant with other direct communication standards, such as Bluetooth (registered trademark), near field communication (NFC), infrared, etc.

(サーバ装置の構成)
図1を再度参照して、サーバ装置10の機能的な構成について具体的に説明する。サーバ装置10は、サーバコンピュータにより構成される。サーバ装置10は、複数台のサーバコンピュータにより協動して実現されてもよい。例えば、サーバ装置10は、各種のコンテンツを提供するサーバコンピュータや、各種の認証サーバを実現するサーバコンピュータ等により協動して実現されてもよい。また、サーバ装置10は、Webサーバを含んでよい。この場合、後述する端末装置20の機能の一部は、Webサーバから受領したHTML文書やそれに付随する各種プログラム(JavaScript(登録商標))をブラウザが処理することによって実現されてもよい。
(Configuration of the server device)
Referring again to FIG. 1, the functional configuration of the server device 10 will be specifically described. The server device 10 is configured by a server computer. The server device 10 may be realized by a plurality of server computers working together. For example, the server device 10 may be realized by a server computer that provides various contents, a server computer that realizes various authentication servers, and the like working together. The server device 10 may also include a Web server. In this case, some of the functions of the terminal device 20 described later may be realized by a browser processing an HTML document received from the Web server and various programs associated therewith (JavaScript (registered trademark)).

サーバ装置10は、図1に示すように、サーバ通信部11と、サーバ記憶部12と、サーバ制御部13と、を備える。 As shown in FIG. 1, the server device 10 includes a server communication unit 11, a server storage unit 12, and a server control unit 13.

サーバ通信部11は、外部装置と無線又は有線によって通信し、情報の送受信を行うインターフェースを含む。サーバ通信部11は、例えば無線LAN(Local Area Network)通信モジュール又は有線LAN通信モジュール等を含んでもよい。サーバ通信部11は、ネットワーク3を介して、端末装置20との間で情報を送受信可能である。 The server communication unit 11 includes an interface that communicates with an external device wirelessly or wiredly to send and receive information. The server communication unit 11 may include, for example, a wireless LAN (Local Area Network) communication module or a wired LAN communication module. The server communication unit 11 is capable of sending and receiving information to and from the terminal device 20 via the network 3.

サーバ記憶部12は、例えば記憶装置であって、仮想現実に係る各種処理に必要な種々の情報及びプログラムを記憶する。 The server memory unit 12 is, for example, a storage device, and stores various information and programs necessary for various processes related to virtual reality.

サーバ制御部13は、専用のマイクロプロセッサ又は特定のプログラムを読み込むことにより特定の機能を実現するCPU(Central Processing Unit)や、GPU(Graphics Processing Unit)等を含んでよい。例えばサーバ制御部13は、端末装置20と協動して、ユーザ入力に応じて仮想現実アプリケーションを実行する。 The server control unit 13 may include a dedicated microprocessor or a central processing unit (CPU) that realizes a specific function by loading a specific program, a graphics processing unit (GPU), etc. For example, the server control unit 13 cooperates with the terminal device 20 to execute a virtual reality application in response to a user input.

サーバ制御部13(以下の端末制御部25も同様)は、コンピュータプログラム(ソフトウェア)に従って動作する1又は複数のプロセッサ、各種処理のうち少なくとも一部の処理を実行する1又は複数の専用のハードウェア回路、或いはそれらの組み合わせ、を含む回路(circuitry)として構成し得る。 The server control unit 13 (similar to the terminal control unit 25 below) can be configured as a circuit including one or more processors that operate according to a computer program (software), one or more dedicated hardware circuits that execute at least some of the various processes, or a combination of these.

(端末装置の構成)
図1を再度参照して、端末装置20の機能的な構成について説明する。図1に示すように、端末装置20は、端末通信部21と、端末記憶部22と、表示部23と、入力部24と、端末制御部25とを備える。
(Configuration of terminal device)
1 again, a description will be given of the functional configuration of the terminal device 20. As shown in FIG 1, the terminal device 20 includes a terminal communication unit 21, a terminal storage unit 22, a display unit 23, an input unit 24, and a terminal control unit 25.

端末通信部21は、外部装置と無線又は有線によって通信し、情報の送受信を行うインターフェースを含む。端末通信部21は、例えばLTE(Long Term Evolution)(登録商標)や、LTE-A(LTE-Advanced)、第五世代移動通信システム、UMB(Ultra Mobile Broadband)等のモバイル通信規格に対応する無線通信モジュール、無線LAN通信モジュール、又は有線LAN通信モジュール等を含んでもよい。端末通信部21は、ネットワーク3を介して、サーバ装置10との間で情報を送受信可能である。 The terminal communication unit 21 includes an interface that communicates with an external device wirelessly or wiredly to send and receive information. The terminal communication unit 21 may include a wireless communication module, a wireless LAN communication module, or a wired LAN communication module that supports mobile communication standards such as LTE (Long Term Evolution) (registered trademark), LTE-A (LTE-Advanced), the fifth generation mobile communication system, and UMB (Ultra Mobile Broadband). The terminal communication unit 21 is capable of sending and receiving information to and from the server device 10 via the network 3.

端末記憶部22は、例えば一次記憶装置及び二次記憶装置を含む。例えば端末記憶部22は、半導体メモリ、磁気メモリ、又は光メモリ等を含んでもよい。端末記憶部22は、サーバ装置10から受信する、仮想現実の処理に用いられる種々の情報及びプログラムを記憶する。仮想現実の処理に用いられる情報及びプログラムは、端末通信部21を介して外部装置から取得されてもよい。例えば、仮想現実アプリケーションプログラムが、所定のアプリケーション配信サーバから取得されてもよい。以下、アプリケーションプログラムを、単にアプリケーションともいう。 The terminal storage unit 22 includes, for example, a primary storage unit and a secondary storage unit. For example, the terminal storage unit 22 may include a semiconductor memory, a magnetic memory, an optical memory, or the like. The terminal storage unit 22 stores various information and programs used in the virtual reality processing received from the server device 10. The information and programs used in the virtual reality processing may be acquired from an external device via the terminal communication unit 21. For example, a virtual reality application program may be acquired from a specified application distribution server. Hereinafter, the application program may also be simply referred to as an application.

また、端末記憶部22は、仮想空間を描画するためのデータ、例えば建物のような屋内の空間や、屋外の空間の画像等を記憶してよい。なお、仮想空間を描画するためのデータは、仮想空間ごとに複数種類用意され、使い分けられてもよい。 The device storage unit 22 may also store data for rendering virtual spaces, such as images of indoor spaces such as buildings and outdoor spaces. Note that multiple types of data for rendering virtual spaces may be prepared for each virtual space and used separately.

また、端末記憶部22は、3次元の仮想空間内に配置された種々のオブジェクトに投影(テクスチャマッピング)するための種々の画像(テクスチャ画像)を記憶してよい。 The device storage unit 22 may also store various images (texture images) for projection (texture mapping) onto various objects placed in a three-dimensional virtual space.

例えば、端末記憶部22は、各ユーザに対応付けられる仮想現実媒体としてのアバターに係るアバター描画情報を記憶する。仮想空間内のアバターは、当該アバターに係るアバター描画情報に基づいて描画される。 For example, the device storage unit 22 stores avatar drawing information relating to an avatar as a virtual reality medium associated with each user. The avatar in the virtual space is drawn based on the avatar drawing information relating to that avatar.

また、端末記憶部22は、例えば各種のギフトオブジェクト、建物、壁、又はNPC(Non Player Character)等のような、アバターとは異なる各種のオブジェクト(仮想現実媒体)に係る描画情報を記憶する。仮想空間内の各種のオブジェクトは、かかる描画情報に基づいて描画される。なお、ギフトオブジェクトとは、一のユーザから他のユーザへのギフト(贈り物)に対応するオブジェクトであり、アイテムの一部である。ギフトオブジェクトは、アバターの身に着けるもの(服やアクセサリー)や装飾するもの(花火やお花等)、背景(壁紙)又はその類や、ガチャ(抽選)を回すことのできるチケット又はその類であってよい。なお、本件出願において用いられる「ギフト」という用語は、「トークン(token)」という用語と同様の概念を意味する。したがって、「ギフト」という用語を「トークン(token)」という用語に置き換えて、本件出願に記載された技術を理解することも可能である。 The terminal storage unit 22 also stores drawing information related to various objects (virtual reality media) different from the avatar, such as various gift objects, buildings, walls, or NPCs (Non Player Characters). Various objects in the virtual space are drawn based on such drawing information. Note that a gift object is an object corresponding to a gift from one user to another user, and is a part of an item. The gift object may be something worn by the avatar (clothes or accessories), decorations (fireworks or flowers, etc.), backgrounds (wallpapers), or the like, or a ticket or the like that can be used to spin a gacha (lottery). Note that the term "gift" used in this application has the same concept as the term "token". Therefore, it is also possible to understand the technology described in this application by replacing the term "gift" with the term "token".

表示部23は、例えば液晶ディスプレイ又は有機EL(Electro-Luminescence)ディスプレイ等の表示デバイスを含む。表示部23は、多様な画像を表示可能である。表示部23は、例えばタッチパネルで構成され、多様なユーザ操作を検出するインターフェースとして機能する。なお、表示部23は、上述したように、ヘッドマウントディスプレイに内蔵される形態であってよい。 The display unit 23 includes a display device such as a liquid crystal display or an organic EL (Electro-Luminescence) display. The display unit 23 is capable of displaying a variety of images. The display unit 23 is configured, for example, with a touch panel, and functions as an interface that detects a variety of user operations. Note that the display unit 23 may be built into a head-mounted display, as described above.

入力部24は、物理キーを含んでもよいし、マウス等のようなポインティングデバイスをはじめとする任意の入力インターフェースを更に含んでもよい。また、入力部24は、音声入力やジェスチャ入力、視線入力のような、非接触型のユーザ入力を受付可能であってもよい。なお、ジェスチャ入力には、ユーザの各種状態を検出するためのセンサ(画像センサや、加速度センサ、距離センサ等)や、センサ技術やカメラを統合した専用モーションキャプチャー、ジョイパッドのようなコントローラ等が利用されてもよい。また、視線検出用のカメラは、ヘッドマウントディスプレイ内に配置されてもよい。なお、上述したように、ユーザの各種状態は、例えばユーザの向きや位置、動き又はその類であり、この場合、ユーザの向きや位置、動きとは、ユーザの顔や手等の身体の一部や全部の向き、位置、動きのみならず、ユーザの視線の向き、位置、動き又はその類を含む概念である。 The input unit 24 may include physical keys, or may further include any input interface including a pointing device such as a mouse. The input unit 24 may also be capable of accepting non-contact user input such as voice input, gesture input, and gaze input. For gesture input, a sensor (image sensor, acceleration sensor, distance sensor, etc.) for detecting various states of the user, a dedicated motion capture integrating sensor technology and a camera, a controller such as a joypad, etc. may be used. The camera for gaze detection may also be disposed in a head-mounted display. As described above, the various states of the user are, for example, the user's orientation, position, movement, or the like. In this case, the user's orientation, position, and movement are concepts that include not only the orientation, position, and movement of a part or all of the user's body such as the face or hands, but also the orientation, position, movement, or the like of the user's gaze.

端末制御部25は、1つ以上のプロセッサを含む。端末制御部25は、端末装置20全体の動作を制御する。 The terminal control unit 25 includes one or more processors. The terminal control unit 25 controls the operation of the entire terminal device 20.

端末制御部25は、端末通信部21を介して情報の送受信を行う。例えば、端末制御部25は、仮想現実に係る各種処理に用いられる種々の情報及びプログラムを、サーバ装置10及び他の外部サーバの少なくとも一方から受信する。端末制御部25は、受信した情報及びプログラムを、端末記憶部22に記憶する。例えば、端末記憶部22には、Webサーバに接続するためのブラウザ(インターネットブラウザ)が格納されてよい。 The terminal control unit 25 transmits and receives information via the terminal communication unit 21. For example, the terminal control unit 25 receives various information and programs used for various processes related to virtual reality from at least one of the server device 10 and other external servers. The terminal control unit 25 stores the received information and programs in the terminal storage unit 22. For example, the terminal storage unit 22 may store a browser (internet browser) for connecting to a web server.

端末制御部25は、ユーザの操作に応じて仮想現実アプリケーションを起動する。端末制御部25は、サーバ装置10と協動して、仮想現実に係る各種処理を実行する。例えば、端末制御部25は、仮想空間の画像を表示部23に表示させる。画面上には、例えばユーザ操作を検出するGUI(Graphical User Interface)が表示されてもよい。端末制御部25は、入力部24を介して、ユーザ操作を検出可能である。例えば端末制御部25は、ユーザのジェスチャによる各種操作(タップ操作、ロングタップ操作、フリック操作、及びスワイプ操作等に対応する操作)を検出可能である。端末制御部25は、操作情報をサーバ装置10に送信する。 The terminal control unit 25 launches a virtual reality application in response to a user's operation. The terminal control unit 25 cooperates with the server device 10 to execute various processes related to virtual reality. For example, the terminal control unit 25 causes the display unit 23 to display an image of a virtual space. For example, a GUI (Graphical User Interface) that detects a user operation may be displayed on the screen. The terminal control unit 25 can detect a user operation via the input unit 24. For example, the terminal control unit 25 can detect various operations by user gestures (operations corresponding to a tap operation, a long tap operation, a flick operation, a swipe operation, etc.). The terminal control unit 25 transmits operation information to the server device 10.

端末制御部25は、仮想空間(画像)とともにアバター等を描画し、端末用画像を表示部23に表示させる。この場合、例えば、図2に示すように、左右の目でそれぞれ視認される画像G200、G201を生成することで、ヘッドマウントディスプレイ用の立体視画像を生成してよい。図2には、左右の目でそれぞれ視認される画像G200、G201が模式的に示されている。なお、以下では、特に言及しない限り、仮想空間の画像とは、画像G200、G201で表現される画像全体を指す。また、端末制御部25は、例えばユーザによる各種操作に応じて、仮想空間内においてアバターの各種動き等を実現させる。あるいは、図3に模式的に示すように、ユーザは、スマートフォンの形態の端末装置20を介して仮想空間内を視認してもよい。 The terminal control unit 25 draws an avatar or the like together with the virtual space (image) and displays the terminal image on the display unit 23. In this case, for example, as shown in FIG. 2, a stereoscopic image for a head-mounted display may be generated by generating images G200 and G201 that are viewed by the left and right eyes, respectively. In FIG. 2, images G200 and G201 that are viewed by the left and right eyes, respectively, are shown typically. In the following, unless otherwise specified, the image of the virtual space refers to the entire image represented by images G200 and G201. In addition, the terminal control unit 25 realizes various movements of the avatar in the virtual space, for example, in response to various operations by the user. Alternatively, as shown typically in FIG. 3, the user may view the virtual space via a terminal device 20 in the form of a smartphone.

なお、以下で説明する仮想空間は、ヘッドマウントディスプレイ又はその類を利用して視認可能な没入型の空間であってユーザがアバターを介して自由に(現実と同様に)動き回ることができる連続性のある3次元的な空間のみならず、図3を参照して上述したようなスマートフォン又はその類を利用して視認可能な非没入型の空間をも含む概念である。なお、スマートフォン又はその類を利用して視認可能な非没入型の空間は、アバターを介して自由に動き回ることができる連続性のある3次元的な空間であってもよいし、2次元的な不連続な空間であってもよい。以下、区別するときは、ユーザがアバターを介して自由に動き回ることができる連続性のある3次元的な空間を、「メタバース空間」とも称する。 The virtual space described below is a concept that includes not only an immersive space that can be viewed using a head-mounted display or the like, which is a continuous three-dimensional space in which a user can move freely (as in reality) through an avatar, but also a non-immersive space that can be viewed using a smartphone or the like as described above with reference to FIG. 3. The non-immersive space that can be viewed using a smartphone or the like may be a continuous three-dimensional space in which a user can move freely through an avatar, or it may be a discontinuous two-dimensional space. Hereinafter, when making a distinction, a continuous three-dimensional space in which a user can move freely through an avatar will also be referred to as a "metaverse space."

また、以下の説明において登場する各種モノや施設(例えば映画館等)は、特に言及しない限り、仮想空間におけるオブジェクトであり、実物とは異なる。また、以下の説明における各種イベントは、仮想空間における各種イベント(例えば、映画の上映等)であり、現実でのイベントとは異なる。 In addition, unless otherwise specified, the various objects and facilities (e.g., movie theaters, etc.) that appear in the following description are objects in the virtual space and are different from the real thing. In addition, the various events in the following description are events in the virtual space (e.g., movie screenings, etc.) and are different from real-life events.

また、以下、アバターとは異なる任意の仮想現実媒体(例えば建物、壁、樹木、又はNPC等)に対応するオブジェクトであって、仮想空間内に描画されたオブジェクトを第2オブジェクトM3とも称する。なお、本実施形態では、第2オブジェクトM3は、仮想空間内で固定されたオブジェクトや、仮想空間内で移動可能なオブジェクト等を含んでもよい。また、第2オブジェクトM3は、仮想空間内に常に配置されるオブジェクトや、所定の配置条件が満たされた場合にだけ配置されるオブジェクト等を含んでもよい。 Furthermore, hereinafter, an object that corresponds to any virtual reality medium different from an avatar (e.g., a building, a wall, a tree, or an NPC, etc.) and is drawn in a virtual space is also referred to as a second object M3. Note that in this embodiment, the second object M3 may include an object that is fixed in the virtual space, an object that is movable in the virtual space, etc. Furthermore, the second object M3 may include an object that is always placed in the virtual space, or an object that is placed only when a predetermined placement condition is satisfied, etc.

仮想空間内で提供されるコンテンツ(仮想現実で提供されるコンテンツ)の種類や数は、任意である。本実施形態では、一例として、仮想空間内で提供されるコンテンツは、各種の映像のようなデジタルコンテンツを含む。映像は、リアルタイムの映像であってもよいし、非リアルタイムの映像であってもよい。また、映像は、実画像に基づく映像であってもよいし、CG(Computer Graphics)に基づく映像であってもよい。映像は、情報提供用の映像であってよい。この場合、映像は、特定のジャンルの情報提供サービス(旅や住まい、食品、ファッション、健康、美容等に関する情報提供サービス)、特定のユーザによる放送サービス(例えばYoutube(登録商標))等に関するものであってよい。 The types and number of contents provided in the virtual space (contents provided in virtual reality) are arbitrary. In this embodiment, as an example, the contents provided in the virtual space include digital content such as various types of video. The video may be real-time video or non-real-time video. The video may be based on a real image or based on CG (Computer Graphics). The video may be video for providing information. In this case, the video may be related to an information providing service in a specific genre (information providing service related to travel, housing, food, fashion, health, beauty, etc.), a broadcasting service by a specific user (for example, YouTube (registered trademark)), etc.

ところで、メタバース空間に対するユーザのアクセス方法は多様であり、例えば、端末装置20に関しては、図4に概念的に示すように、ヘッドマウントディスプレイ(いわゆるVRゴーグルやVRグラス等を含む)や、スマートフォン、パーソナルコンピュータ、AR(Augmented Reality)グラス(いわゆるスマートグラス等を含む)等、多様な種類の端末装置20(電子機器の一例)によるアクセスが可能である。 Now, there are various ways in which users can access the metaverse space. For example, as conceptually shown in FIG. 4, with regard to the terminal device 20, access is possible using various types of terminal device 20 (examples of electronic devices), such as head-mounted displays (including so-called VR goggles and VR glasses), smartphones, personal computers, and AR (Augmented Reality) glasses (including so-called smart glasses).

また、現実でのユーザのステータスは、仕事中、就寝中、食事中、移動中、メタバース空間の滞在中、といった具合に多様である。なお、ステータスとは、環境を含む概念である。例えば、一のユーザのステータスは、当該一のユーザを取り巻く周辺環境を含んでよい。 In addition, a user's status in the real world can be diverse, such as working, sleeping, eating, traveling, or staying in the metaverse space. Note that status is a concept that includes the environment. For example, the status of a user may include the surrounding environment surrounding the user.

各ユーザは、それぞれ異なりうる多様なステータスを有しつつ、多様な端末装置20を介して交流を図ることができる。 Each user can have a variety of different statuses and can interact through a variety of terminal devices 20.

このようにして、各ユーザは、現実でのステータスの変更を伴いながら、かつ、多様な端末装置20を使い分けながら、複数のユーザ間のチャット形式のコミュニケーションを行うことができる。従って、例えば、各ユーザは、常時接続状態(すなわち、ユーザ間でつながった状態)で、一日以上を過ごすこともできる。例えば、図5に示す例では、ある一のユーザに関して、午前0時から24時までに利用した端末装置20(以下、単に「利用デバイス」とも称する)であって、常時接続のために利用した端末装置20の時系列の一例が示されている。また、各ユーザ(例えば友達同士のユーザ)は、チャット形式のコミュニケーションを介して待ち合わせ場所などの決め事をして、適宜、メタバース空間の所定の場所(例えばいつもの待ち合わせ場所)に移動し、そこで、出会い、遊んだり、話したり、色々できる。
また、図5Aに示す例では、横軸に時刻(又は時間)を取り、ユーザの状態(User Status)と、利用デバイスの時系列が示されている。なお、図5Aは、ある一日のパターンを示すが、当該パターンは、曜日や季節等に応じて異なりうる。図5Aに示す例では、ユーザの移動中は、ARグラスと連動(連携)してスマートフォンでの同時アクセス(又は連動)が実現されている。この場合、スマートフォンでの操作と、ARグラスでの表示機能が協調されてもよい。また、自宅に帰ると、ユーザは、PCを起動し、スマートフォンからPCへの切り替えを実現している。このように、PCとスマートフォンは互いに排他的関係(同時に利用できない関係)であってよい。ユーザは、PCを利用している間は、ヘッドマウントディスプレイとPCとを連携させてもよい。ただし、ユーザは、ヘッドマウントディスプレイをスタンドアローンで利用してもよい。
In this way, each user can communicate with a plurality of users in a chat format while changing their real-life status and using a variety of terminal devices 20. Therefore, for example, each user can spend more than a day in a constant connection state (i.e., a state in which the users are connected to each other). For example, the example shown in FIG. 5 shows an example of a time series of terminal devices 20 (hereinafter also simply referred to as "used devices") used by a certain user from 0:00 a.m. to 24:00 and used for constant connection. In addition, each user (for example, users who are friends) can decide on a meeting place through chat-format communication, move to a predetermined place in the metaverse space (for example, a usual meeting place), and meet, play, talk, and do various things there.
In the example shown in FIG. 5A, the horizontal axis indicates time (or hours), and the user status (User Status) and the time series of the device used are shown. Note that FIG. 5A shows a pattern for a certain day, but the pattern may differ depending on the day of the week, the season, etc. In the example shown in FIG. 5A, while the user is moving, simultaneous access (or linkage) with the smartphone is realized in conjunction (linkage) with the AR glasses. In this case, the operation with the smartphone and the display function with the AR glasses may be coordinated. Also, when the user returns home, the user starts up the PC and realizes switching from the smartphone to the PC. In this way, the PC and the smartphone may be in an exclusive relationship (a relationship in which they cannot be used simultaneously). The user may link the head mounted display and the PC while using the PC. However, the user may use the head mounted display in a standalone manner.

以下では、上述したようなチャット形式のコミュニケーションを効果的に支援できる各種情報処理について説明する。ただし、以下の各種情報処理は、チャット形式のコミュニケーションに好適であるものの、他のアプリケーションにも適用可能である。なお、チャット形式とは、メッセージや文字(絵文字等)、記号、画像(スタンプ等)又はその類のような、通話とは異なる形式を指す。なお、チャット形式とは、音声を除外するものではなく、例えば音声付きのスタンプ等が利用可能な形式を含んでもよい。 Below, various types of information processing that can effectively support chat-style communication as described above will be explained. However, although the various types of information processing described below are suitable for chat-style communication, they can also be applied to other applications. Note that the chat format refers to a format that is different from a telephone call, such as messages, characters (emojis, etc.), symbols, images (stamps, etc.), or the like. Note that the chat format does not exclude voice, and may include a format in which, for example, stamps with voice can be used.

以下では、各ユーザは、特に言及しない限り、チャット形式のコミュニケーションのためにつながっている各ユーザであって、一のチャットグループ内の各ユーザを指す。“つながっている”とは、上述したネットワーク3に接続する端末装置20を介して、互いに通信可能な状態を指す。また、チャットグループとは、あらかじめ登録されたグループであってもよいし、その場で形成されたグループであってもよい。また、一のチャットグループに参加するユーザは、固定であってもよいし、動的に変化してもよい。 Unless otherwise specified, in the following, each user refers to each user who is connected for chat-style communication, and each user in one chat group. "Connected" refers to a state in which users can communicate with each other via terminal device 20 connected to the network 3 described above. Also, a chat group may be a group that is registered in advance, or may be a group that is formed on the spot. Also, the users participating in one chat group may be fixed, or may change dynamically.

本実施形態では、まず、一のユーザから何らかが送信されると、その送信内容に対する受信側からの返信内容に関する複数の選択肢が生成される。この場合、受信側のユーザは、複数の選択肢の中に、所望の選択肢があれば、それを選択するだけで返信が完了するので、利便性が高くなる。 In this embodiment, when a user sends something, multiple options are generated for the reply from the receiving side to the sent content. In this case, if the receiving user finds a desired option among the multiple options, the reply can be completed simply by selecting it, which increases convenience.

図6及び図7は、一のユーザからの送信内容に対する他の各ユーザの返信内容に関する複数の選択肢の提示されている様子を概念的に示す図である。なお、図6及び図7で示す会話は、チャット形式のコミュニケーションに関する。また、以下の説明において、銀行など場所を表す用語は、特に言及しない限り、メタバース空間内の場所を表す。 Figures 6 and 7 are conceptual diagrams showing how multiple options are presented for reply content from each user to content sent by another user. Note that the conversations shown in Figures 6 and 7 relate to chat-style communication. In addition, in the following explanation, terms that indicate locations, such as "bank," refer to locations within the metaverse space, unless otherwise specified.

図6では、ユーザAが“問いかけA”を他の各ユーザ(3人のユーザB、C、Dだけ図示)を受けた場合、各ユーザには、それぞれ、複数の選択肢が提示される。各選択肢は、メッセージや文字(絵文字等)、記号、画像(スタンプ等)又はその類を含んでよい。例えば、ユーザBには、返答候補B1、B2等が提示されている。同様に、ユーザCには、返答候補C1、C2等が提示され、ユーザDには、返答候補D1、D2等が提示されている。この場合、例えば、ユーザBは、複数の選択肢B1、B2等の中に、所望の選択肢があれば、それを選択するだけで返信が完了するので、利便性が高くなる。例えば、図7には、“問いかけA”に対して4つの選択肢STM1からSTM4がユーザBに提示された状態が示されている。なお、図7では、4つの選択肢STM1からSTM4が、送信内容(“問いかけA”)ともに表示されているが、送信内容とは別に表示(提示)されてもよい。いずれの場合も、ユーザBは、4つの選択肢STM1からSTM4のうちに、所望の選択肢があれば、選択するだけで返信が可能となる。 In FIG. 6, when user A receives "Question A" from each of the other users (only three users B, C, and D are shown), each user is presented with a number of options. Each option may include a message, a character (such as an emoticon), a symbol, an image (such as a stamp), or the like. For example, reply candidates B1, B2, etc. are presented to user B. Similarly, reply candidates C1, C2, etc. are presented to user C, and reply candidates D1, D2, etc. are presented to user D. In this case, for example, if user B finds a desired option among the multiple options B1, B2, etc., he or she can simply select the desired option to complete the reply, which is highly convenient. For example, FIG. 7 shows a state in which four options STM1 to STM4 are presented to user B in response to "Question A". Note that in FIG. 7, the four options STM1 to STM4 are displayed together with the transmission content ("Question A"), but they may be displayed (presented) separately from the transmission content. In either case, if user B finds the desired option among the four options STM1 to STM4, he or she can reply by simply selecting it.

本実施形態では、受信側の各ユーザに提示される複数の選択肢は、送信内容(本例では、“問いかけA”)に基づいて生成される。例えば、複数の選択肢は、送信内容に対する応答となる選択肢を含んでよい。本例の場合、複数の選択肢のうちのいくつかの選択肢又はすべては、問いかけAに対する応答としての意味をなす選択肢であってよい。問いかけAに対する応答としての意味をなす選択肢とは、例えば、問いかけA=今から場所Aに行かない?に対して、「今から行くよ」、「今日は無理」、「もうすぐ寝る」、「場所Bがいいな」、「お金ない」といったメッセージや、これらの内容を直接的又は間接的に表す絵文字やスタンプを含む各選択肢は、問いかけAに対する応答としての意味をなす選択肢でありうる。 In this embodiment, the multiple options presented to each user on the receiving side are generated based on the content of the transmission (in this example, "Question A"). For example, the multiple options may include an option that is a response to the content of the transmission. In this example, some or all of the multiple options may be options that have a meaning as a response to question A. Options that have a meaning as a response to question A include, for example, in response to question A = Shall we go to place A now?, messages such as "I'll go now," "Not today," "I'm going to bed soon," "Place B would be good," and "I don't have any money," as well as each option including emojis and stamps that directly or indirectly express these contents.

複数の選択肢は、送信内容に対する応答として意味をなさない選択肢を含んでもよい。送信内容に対する応答として意味をなさない選択肢は、送信内容とは関連性が低い又は関連性が全くないメッセージ等を含む選択肢であってよい。例えば、問いかけAに対する応答としての意味をなさない選択肢とは、問いかけに対する答えになっていないメッセージ等を含む選択肢であってよい。例えば、問いかけA=今から場所Aに行かない?に対して、「このおかず美味しいね」、「犬がかわいい」といったメッセージや、謎の絵文字等、これらの内容を直接的又は間接的に表す絵文字やスタンプを含む各選択肢は、問いかけAに対する応答としての意味をなさない選択肢でありうる。 The multiple options may include options that are meaningless as a response to the transmitted content. Options that are meaningless as a response to the transmitted content may be options that include messages that are low or completely unrelated to the transmitted content. For example, options that are meaningless as a response to question A may be options that include messages that do not answer the question. For example, in response to question A = Shall we go to place A now?, each option that includes messages such as "This side dish is delicious" or "The dog is cute" or a mysterious emoticon or stamp that directly or indirectly expresses these contents may be an option that is meaningless as a response to question A.

例えば、一実施例では、ユーザに提示される選択肢は、あることを直接的に表す種類の選択肢(以下、「直接応答型の選択肢」とも称する)、同事項を間接的に表す選択肢(以下、「間接応答型の選択肢」とも称する)、同事項とは無関係な選択肢(以下、「第1の非関連応答型の選択肢」とも称する)、同事項とは違う話題に関する選択肢(以下、「第2の非関連応答型の選択肢」とも称する)の4種類の選択肢があってよい。なお、第1の非関連応答型の選択肢は、例えば、相手側にとって何を意味しているか不明なスタンプを含む選択肢等を含んでよい。また、第2の非関連応答型の選択肢は、上述した例のような、例えば、問いかけA=今から場所Aに行かない?に対して、「このおかず美味しいね」、「犬がかわいい」といったメッセージを含む選択肢等を含んでよい。 For example, in one embodiment, the options presented to the user may be of four types: options that directly express something (hereinafter also referred to as "direct response type options"), options that indirectly express the same thing (hereinafter also referred to as "indirect response type options"), options that are unrelated to the same thing (hereinafter also referred to as "first unrelated response type options"), and options related to a topic different from the same thing (hereinafter also referred to as "second unrelated response type options"). Note that the first unrelated response type options may include, for example, options that include stamps whose meaning is unclear to the other party. Also, the second unrelated response type options may include, for example, options that include messages such as "This side dish is delicious" or "The dog is cute" in response to question A = Shall we go to place A now? as in the above example.

ここで、送信内容に対する応答として意味をなすか否かは、相対的な概念でありうる。例えば、この場合、ある選択肢が、直接応答型の選択肢、間接応答型の選択肢又は第1の非関連応答型の選択肢ともなる場合もありうる。このような点を考慮して、上述した4種類の選択肢のような選択肢の属性を区別するための情報が、各選択肢に付与されてもよい。例えば、各選択肢には、あらかじめ所定フラグ(第2パラメータの一例)が対応付けられてよい。例えば、所定フラグの値“1”(第1の値の一例)が対応付けられた選択肢(第3選択肢の一例)は、送信内容に対する応答として意味をなす選択肢として扱われ、所定フラグの値“0”(第2の値の一例)が対応付けられた選択肢(第4選択肢の一例)は、送信内容に対する応答として意味をなさない選択肢として扱われてよい。 Here, whether or not an option is meaningful as a response to the transmitted content may be a relative concept. For example, in this case, a certain option may be a direct response type option, an indirect response type option, or a first unrelated response type option. In consideration of this point, information for distinguishing the attributes of the option such as the four types of options described above may be added to each option. For example, a predetermined flag (an example of a second parameter) may be associated with each option in advance. For example, an option (an example of a third option) associated with a predetermined flag value of "1" (an example of a first value) may be treated as an option that is meaningful as a response to the transmitted content, and an option (an example of a fourth option) associated with a predetermined flag value of "0" (an example of a second value) may be treated as an option that is not meaningful as a response to the transmitted content.

また、所定フラグは、意味をなす/なさない、の区別のためのフラグ機能に代えて又は加えて、意味をなす選択肢に関して、承諾/拒否の区別のためのフラグ機能を有してもよい。例えば、所定フラグの値“1”が対応付けられた選択肢は、送信内容に対する承諾を表す選択肢として扱われ、所定フラグの値“0”が対応付けられた選択肢は、送信内容に対する拒否を表す選択肢として扱われてよい。例えば、なんらかの集まりに誘う送信内容に対する承諾を表す選択肢が一のユーザにより選択された場合、当該ユーザに向けて、当該集まりに係る場所への移動を実現するためのリンクが送信されたり、当該集まりに対する出席予定者として管理されたりしてもよい。また、所定フラグは、承諾/拒否の区別のためのフラグ機能に代えて、承諾/拒否/保留/それ以外、といった具合に、より多くの意味を区別可能とされてもよい。この場合、承諾/拒否/保留/それ以外、の4種類に対応した4種類の選択肢が提示されてよく、ユーザにより選択された選択肢に係る種類に応じて、同ユーザのスケジュール管理が反映(更新)されてもよい。なお、この場合、保留/それ以外は、意味をなす/なさない、の区別のうちの、意味をなさない、に分類されてもよい。 In addition, instead of or in addition to the flag function for distinguishing between meaningful and non-meaningful, the predetermined flag may have a flag function for distinguishing between acceptance and rejection of meaningful options. For example, an option associated with the value "1" of the predetermined flag may be treated as an option representing acceptance of the transmission content, and an option associated with the value "0" of the predetermined flag may be treated as an option representing rejection of the transmission content. For example, when an option representing acceptance of the transmission content inviting a certain gathering is selected by a user, a link for moving to the location of the gathering may be transmitted to the user, or the user may be managed as a person scheduled to attend the gathering. In addition, instead of the flag function for distinguishing between acceptance and rejection, the predetermined flag may be made capable of distinguishing more meanings, such as acceptance/rejection/withhold/other. In this case, four types of options corresponding to the four types of acceptance/rejection/withhold/other may be presented, and the schedule management of the user may be reflected (updated) according to the type of option selected by the user. In this case, pending/otherwise may be classified as meaningless in the meaningful/meaningless distinction.

本実施形態では、同じ送信内容(本例では、“問いかけA”)であったとしても、異なりうる。例えば、ユーザCに提示される返答候補C1、C2等と、ユーザDに提示される返答候補D1、D2等とは、一部又は全部が異なってもよい。この場合、例えば、複数の選択肢は、各ユーザに対応付けられている任意のパラメータ(第1パラメータの一例)に基づいて生成されてもよい。例えば、一のユーザに提示される複数の選択肢は、当該ユーザが所持する端末装置20の種類、当該ユーザが所持するメタバース空間内のアイテム、当該ユーザのステータス、及び、当該ユーザと送信側ユーザ(例えば図6ではユーザA)との関係のうちの、少なくともいずれか1つを含んでよい。 In this embodiment, even if the transmitted content is the same (in this example, "Question A"), it may be different. For example, reply candidates C1, C2, etc. presented to user C and reply candidates D1, D2, etc. presented to user D may be partially or completely different. In this case, for example, the multiple options may be generated based on any parameter (an example of a first parameter) associated with each user. For example, the multiple options presented to a user may include at least one of the type of terminal device 20 possessed by the user, an item in the metaverse space possessed by the user, the user's status, and the relationship between the user and the sending user (for example, user A in FIG. 6).

なお、返答候補が異なるとは、同じ内容であっても表現が異なる態様を含む概念である。例えば、同じ内容であっても、方言や言語が異なる場合があってよい。例えば、大阪出身のユーザに対しては、関西弁のメッセージを含む選択肢が提示されてもよい。また、返答候補が異なるとは、例えばスタンプとして利用されてよいアバターの形態が異なってもよい。例えば、アバターが各ユーザの独自のアバターになることや、アバターの型(男性型/女性型/その他)に応じてポーズが異なる等の相違が実現されてもよい。 Different reply candidates is a concept that includes different expressions even if the content is the same. For example, the content may be the same but in different dialects or languages. For example, a user from Osaka may be presented with options that include messages in Kansai dialect. Different reply candidates may also mean, for example, that the form of the avatar that may be used as a stamp is different. For example, the avatar may be unique to each user, or the pose may differ depending on the type of avatar (male/female/other).

このようにして本実施例によれば、ユーザ自体の多様性や、ユーザに関連した多様性、ユーザのステータスの多様性等、各多様性に対応できる選択肢をユーザごとに提示できる。これにより、各ユーザにとって所望の選択肢が提示される可能性が高くなり、利便性が向上するとともに、ユーザによるメッセージ等の打ち直しなどに端末装置20が対応する場合の処理負荷を低減できる。 In this way, according to this embodiment, options that can accommodate each type of diversity, such as the diversity of the user itself, the diversity related to the user, and the diversity of the user's status, can be presented to each user. This increases the likelihood that the options desired by each user will be presented, improving convenience and reducing the processing load on the terminal device 20 when the user retypes a message, etc.

本実施形態では、複数の選択肢は、端末装置20を介して視認可能なメタバース空間内の移動先に対応付けられた選択肢(以下、他の選択肢と区別する場合は、「移動型選択肢」と称する)(第1選択肢の一例)を含んでよい。なお、移動型選択肢は、複数やり取りされる会話における毎回の返信タイミングで提示されてもよいし、一部の返信タイミングだけで提示されてもよい。例えば、送信内容がメタバース空間内での移動を提案する内容である場合、当該送信内容に基づいて生成される複数の選択肢に、移動型選択肢が含められてもよい。あるいは、上述したように、送信内容に対する応答として意味をなさない選択肢として、移動型選択肢が含められてもよい。 In this embodiment, the multiple options may include an option (hereinafter, when distinguished from other options, referred to as a "movement-type option") (an example of a first option) associated with a destination within the metaverse space visible via the terminal device 20. The movement-type option may be presented at the timing of each reply in a conversation in which multiple exchanges are made, or may be presented only at the timing of some replies. For example, if the content of a transmission is a content that suggests movement within the metaverse space, a movement-type option may be included in the multiple options generated based on the transmission content. Alternatively, as described above, a movement-type option may be included as an option that does not make sense as a response to the transmission content.

移動型選択肢に対応付けられるメタバース空間内の移動先は、メタバース空間内の任意の場所であってよい。例えば、問いかけA=今から場所Aに行かない?に対して、移動型選択肢に対応付けられるメタバース空間内の移動先は、メタバース空間内の場所Aであってもよいし、場所Aの入口であってもよい。後者は、場所Aが、入口を有する比較的大きい施設である場合に好適である。また、場所Aが、チケットなどの権限を有するユーザ(アバター)だけが入れる施設等である場合、移動型選択肢に対応付けられるメタバース空間内の移動先は、チケット販売所などの権限取得場所であってもよい。 The destination in the metaverse space associated with the mobility option may be any location in the metaverse space. For example, for question A = Shall we go to location A now?, the destination in the metaverse space associated with the mobility option may be location A in the metaverse space or the entrance to location A. The latter is suitable when location A is a relatively large facility with an entrance. Also, if location A is a facility that can only be entered by users (avatars) with authority such as tickets, the destination in the metaverse space associated with the mobility option may be an authority acquisition location such as a ticket sales booth.

移動型選択肢についても、提示される各ユーザに対応付けられている任意のパラメータに基づいて、ユーザごとに異なりうる態様で、生成されてもよい。例えば、問いかけA=今から場所Aに行かない?に対して、場所Aが有料施設等である場合であって、対応するユーザの所持金が不足している場合、当該ユーザに提示される移動型選択肢に対応付けられるメタバース空間内の移動先は、銀行やATM等であってもよい。この場合、銀行やATM等で所持金の不足が解消された際に、新たな選択肢が生成されてもよい。この場合、当該ユーザに提示される移動型選択肢に対応付けられるメタバース空間内の移動先は、場所Aであってもよい。他方、対応するユーザの所持金が不足していない場合、当該ユーザに提示される移動型選択肢に対応付けられるメタバース空間内の移動先は、場所Aであってもよい。 The travel-type options may also be generated in a manner that may differ for each user based on any parameter associated with each user to which they are presented. For example, in response to question A = Shall we go to place A now?, if place A is a paid facility or the like and the corresponding user does not have enough money, the destination in the metaverse space associated with the travel-type option presented to the user may be a bank, ATM, or the like. In this case, when the shortage of money is resolved at the bank, ATM, or the like, a new option may be generated. In this case, the destination in the metaverse space associated with the travel-type option presented to the user may be place A. On the other hand, if the corresponding user does not have enough money, the destination in the metaverse space associated with the travel-type option presented to the user may be place A.

移動型選択肢は、移動先へのリンクを含んでよい。この場合、当該移動先への移動を望むユーザは、当該リンクを利用して移動先への移動を実現できるので、利便性が向上する。移動先へのリンクは、移動先自体が同じあっても、アクセスに利用する端末装置20(すなわち利用デバイス)に応じて異なりうる。例えば、利用デバイスがヘッドマウントディスプレイである場合と、利用デバイスがスマートフォンである場合とで、リンクが異なってもよい。また、リンクは、利用するOS(Operating System)やプラットフォーム等に応じて異なりうる各種のディープリンクが利用されてもよい。 The movement type option may include a link to the destination. In this case, a user who wishes to move to the destination can use the link to achieve movement to the destination, improving convenience. The link to the destination may differ depending on the terminal device 20 (i.e., the device used) used to access the destination, even if the destination itself is the same. For example, the link may be different when the device used is a head-mounted display and when the device used is a smartphone. In addition, various deep links that may differ depending on the OS (operating system) or platform used may be used as the link.

なお、移動型選択肢は、対応する送信内容に含まれうるリンクに対応付けられてもよい。例えば、対応する送信内容が、「今から場所Aに行かない?」というメッセージとともに、その場所に係るURL表示を含む場合、移動型選択肢は、当該URL表示に係るリンクに対応付けられてよい。 The mobile option may be associated with a link that may be included in the corresponding transmission content. For example, if the corresponding transmission content includes a message such as "Shall we go to location A now?" along with a URL display related to that location, the mobile option may be associated with a link related to the URL display.

このような移動型選択肢がユーザにより選択される場合、すなわち移動型選択肢に基づく応答(第1応答の一例)がなされた場合)、当該応答がなされた移動型選択肢に対応付けられた移動先への移動関連処理が実行されてよい。 When such a travel-type option is selected by the user, i.e., when a response based on the travel-type option (an example of a first response) is made), travel-related processing may be executed for the destination associated with the travel-type option to which the response was made.

移動関連処理は、移動先へ移動させる処理、及び、移動先への移動を可能とする表示を出力する処理のうちの少なくともいずれか一方を含んでよい。移動先へ移動させる処理は、移動型選択肢がユーザにより選択される場合に、無条件に実行される自動処理であってもよいし、更なる条件下で実行される処理であってもよい。移動先への移動を可能とする表示を出力する処理も同様である。移動先への移動を可能とする表示は、リンク自体であってもよいし、リンクを実行するための所定入力を受け付けるためのユーザインタフェースであってもよい。なお、移動先への移動を可能とする表示(ユーザインタフェース)を出力する処理の場合、ユーザは、当該表示を見て所定入力を行うことで、移動先への移動を実現可能とされてもよい。 The movement-related process may include at least one of a process of moving to a destination and a process of outputting a display that allows movement to the destination. The process of moving to a destination may be an automatic process that is executed unconditionally when a movement-type option is selected by the user, or may be a process that is executed under additional conditions. The same applies to the process of outputting a display that allows movement to a destination. The display that allows movement to a destination may be the link itself, or may be a user interface for receiving a specified input for executing the link. In the case of a process of outputting a display (user interface) that allows movement to a destination, the user may be able to realize movement to the destination by looking at the display and making a specified input.

図8は、移動関連処理の説明図であって、複数の選択肢に関連した説明図である。 Figure 8 is an explanatory diagram of movement-related processing, which is related to multiple options.

図8には、図7に示したような、“問いかけA”に対して4つの選択肢STM1からSTM4が示されている。ここでは、問いかけA=今から場所Aに行かない?であるとする。 In Fig. 8, four options STM1 to STM4 are shown for "Question A" as shown in Fig. 7. Here, we assume that Question A = "Shall we go to place A now?"

選択肢STM1は、“いいよ(OK)”という意味がある“Hi!”という文字等を含むため、応答の意味をなすメッセージを含む移動型選択肢である。このような選択肢STM1が選択された場合、図8に示すように、場所Aに対応するリンク(ここでは、「https://aaaa」)が実行される(すなわち、リンクhttps://aaaaを踏む)ことで、場所Aへの移動が、移動関連処理として実現されてよい(ステップS800)。なお、当該リンクは、ユーザの端末装置20やアプリケーションによって処理が変わる形態のリンクであってもよい。この場合、当該リンクを踏んだユーザの端末装置20は、選択肢STM1を選択した際にユーザが利用している端末装置20となる。また、選択肢STM1に対応付けられるリンクは、当該リンクが記載されたチャットに参加しているユーザのみがアクセス可能なものであってもよい。また、選択肢STM1に対応付けられるリンクは、フレンド同士の合言葉のようなパスワードの入力を条件として有効化されてもよい。この場合、意図しない第3者の参加等を防止できる。また、選択肢STM1に対応付けられるリンクは、待ち合わせ時間等に応じた有効期限が設定されてもよい。 Option STM1 is a movement-type option that includes a message that has the meaning of a response, since it includes characters such as "Hi!", which has the meaning of "OK". When option STM1 is selected, as shown in FIG. 8, a link corresponding to location A (here, "https://aaaa") is executed (i.e., the link https://aaaa is clicked), and movement to location A may be realized as a movement-related process (step S800). Note that the link may be a link in a form in which the process changes depending on the user's terminal device 20 or application. In this case, the terminal device 20 of the user who clicked on the link is the terminal device 20 that the user is using when option STM1 is selected. In addition, the link associated with option STM1 may be accessible only to users who are participating in the chat in which the link is described. In addition, the link associated with option STM1 may be enabled on the condition that a password, such as a password between friends, is entered. In this case, unintended participation by a third party can be prevented. In addition, the link associated with option STM1 may be set with an expiration date based on the meeting time, etc.

選択肢STM2は、“否(NO)”という意味がある“Bye!”という文字等を含むため、応答の意味をなすメッセージを含む選択肢であるが、“否”であるがゆえに、移動先に対応付けられない選択肢である。この場合、移動関連処理は禁止されてもよい。なお、このような“断り”を表す返信がなされる場合、ユーザBが伝言等を残すことが可能な場所へのリンクが提示されてもよい。この場合、ユーザBが伝言や動画(例えば、お断りの伝言や動画)を残した場合、当該リンクがユーザA(“問いかけA”をしたユーザ)に送信されてもよい。 Option STM2 is an option that includes a message that has the meaning of a response because it includes the characters "Bye!", which has the meaning of "no (NO)." However, because it is "no," it is an option that cannot be associated with a destination. In this case, movement-related processing may be prohibited. When such a reply indicating "refusal" is made, a link to a place where user B can leave a message, etc. may be presented. In this case, if user B leaves a message or video (for example, a message or video of refusal), the link may be sent to user A (the user who made "question A").

選択肢STM3は、“いいよ(OK)”という意味があるグーマーク(OKサイン)を手で出している絵を含むため、応答の意味をなすメッセージを含む移動型選択肢である。また、選択肢STM3は、ヘッドマウントディスプレイの絵を含むため、利用デバイスを示唆する情報を含む。このような選択肢STM3が選択された場合、図8に示すように、利用デバイスに係る条件が満たされた場合(ステップS801の“YES”)に、図8に示すように、場所Aに対応するリンク(ここでは、「https://aaaa」)が実行されてもよい。この場合、利用デバイスに係る条件は、対応する利用デバイスが利用された場合に満たされてよい。すなわち、本例の場合、ユーザBがヘッドマウントディスプレイを装着した場合に、場所Aに対応するリンク(ここでは、「https://aaaa」)が実行されることで、場所Aへの移動が、移動関連処理として実現されてよい(ステップS802)。 Option STM3 is a movement-type option that includes a message that represents a response because it includes a picture of a hand making a thumbs-up (OK sign), which means "good (OK)." Option STM3 also includes a picture of a head-mounted display, and therefore includes information that suggests the device to be used. When option STM3 is selected, as shown in FIG. 8, if the condition related to the device to be used is satisfied ("YES" in step S801), a link corresponding to location A (here, "https://aaaa") may be executed as shown in FIG. 8. In this case, the condition related to the device to be used may be satisfied when the corresponding device to be used is used. That is, in this example, when user B wears the head-mounted display, the link corresponding to location A (here, "https://aaaa") may be executed, and movement to location A may be realized as a movement-related process (step S802).

選択肢STM4は、“否(NO)”という意味がある“おやすみなさい”という文字等を含むため、応答の意味をなすメッセージを含む選択肢であるが、“否”であるがゆえに、移動先に対応付けられない選択肢である。この場合、移動関連処理は禁止されてもよい。なお、ユーザBが就寝中である場合、選択肢STM4が自動的に選択されてもよい。ユーザBが就寝中であるか否かは、例えばユーザBに装着されうる生体センサからのセンサ情報等に基づいて判定されてもよい。 Option STM4 is an option that includes a message that has the meaning of a response because it includes the characters "good night" which has the meaning of "no (NO)", but because it is "no", it is an option that cannot be associated with the destination. In this case, movement-related processing may be prohibited. Note that if user B is asleep, option STM4 may be automatically selected. Whether user B is asleep may be determined based on, for example, sensor information from a biosensor that may be attached to user B.

図9は、移動関連処理の説明図であって、複数の選択肢に関連した説明図である。 Figure 9 is an explanatory diagram of movement-related processing, which is related to multiple options.

図9には、“問いかけA1”に対して4つの選択肢STM1からSTM4が示されている。ここでは、問いかけA1=「今から場所Aに行かない?ドレスコードは赤い服」であるとする。選択肢STM2、STM4について、図8を参照して上述した例と同じであってよく、説明を省略する。 In FIG. 9, four options STM1 to STM4 are shown for "Question A1." In this case, it is assumed that Question A1 = "Shall we go to place A now? The dress code is red clothing." Options STM2 and STM4 may be the same as the example described above with reference to FIG. 8, and a description thereof will be omitted.

選択肢STM1は、“いいよ(OK)”という意味がある“Hi!”という文字等を含むため、応答の意味をなすメッセージを含む移動型選択肢である。このような選択肢STM1が選択された場合、図8に示すように、場所Aに対応するリンクが直ちに実行されてもよいが、“ドレスコードは赤い服”に対応したアイテム調達の要否が判定されてもよい(ステップS900)。すなわち、ユーザBが、赤い服(対応するアバターに着せる赤い服)を有しているか否かを判定してもよい。判定の結果、アイテム調達が不要であると判定された場合、そのまま、場所Aに対応するリンクが実行されてもよい(ステップS902)。ただし、赤い服が複数ある場合、ユーザBに対して、どの服を着用するかが選択されてもよい。また、ユーザBが、赤い服を有しているが、新たな赤い服を調達したい場合、ユーザからの指示に応じて、ステップS901に進むことができてもよい。他方、判定の結果、例えばユーザBが赤い服を有しておらず、アイテム調達が必要であると判定された場合、赤い服を調達できる別の場所(例えば服屋)に係るリンク(ここでは、「https://bbbb」)が実行されてもよい(ステップS901)。なお、赤い服を調達できる別の場所が複数ある場合、ユーザBにより選択可能とされてもよい。なお、ここでは、赤い服について説明したが、赤い靴や赤い帽子など、他のアイテムが考慮されてもよい。また、赤い服を調達できる別の場所は、お店(例えば服屋)に限られず、任意である。例えば、赤い服を調達できる別の場所への移動は、赤い服を調達できる抽選ゲーム(ガチャ)の実行により実現されてもよい。また、赤い服を調達できる別の場所は、赤い服を調達できるレンタルやアイテム交換が可能な場所であってもよい。アイテム交換が可能な場所への移動は、交換するための掲示板や赤い服を所有しているユーザとのチャット画面への遷移により実現されてもよい。 Option STM1 is a mobile option that includes a message that has the meaning of a response, since it includes characters such as "Hi!", which means "OK". When option STM1 is selected, as shown in FIG. 8, a link corresponding to location A may be immediately executed, or it may be determined whether or not an item corresponding to "red clothes is the dress code" is required to be procured (step S900). That is, it may be determined whether or not user B has red clothes (red clothes to be worn by the corresponding avatar). If it is determined that no item is required to be procured as a result of the determination, the link corresponding to location A may be executed as is (step S902). However, if there are multiple red clothes, it may be possible to select which clothes user B should wear. Also, if user B has red clothes but wants to obtain new red clothes, it may be possible to proceed to step S901 in response to an instruction from the user. On the other hand, if it is determined that user B does not have red clothing and needs to procure an item, a link (here, "https://bbbb") related to another location where red clothing can be obtained (e.g., a clothing store) may be executed (step S901). If there are multiple other locations where red clothing can be obtained, user B may be able to select one of them. Although red clothing has been described here, other items such as red shoes and a red hat may be considered. In addition, the other location where red clothing can be obtained is not limited to a store (e.g., a clothing store) and may be any other location. For example, moving to another location where red clothing can be obtained may be realized by playing a lottery game (gacha) where red clothing can be obtained. In addition, the other location where red clothing can be obtained may be a location where red clothing can be rented or exchanged. Moving to a location where item exchange is possible may be realized by transitioning to a bulletin board for exchange or a chat screen with a user who owns red clothing.

選択肢STM3は、選択肢STM1と同様、応答の意味をなすメッセージを含む移動型選択肢である。この場合も、図8を参照して上述した例と同様、利用デバイスに係る条件が判定されてよく(ステップS910)、利用デバイスに係る条件が満たされた場合(ステップS910の“YES”)に、図9に示すように、アイテム調達の要否が判定されてもよい(ステップS911)。以下のステップS912、ステップS913は、選択肢STM1の場合のステップS901、ステップS902とそれぞれ同様である。 Like option STM1, option STM3 is a mobile option that includes a message that serves as a response. In this case, as in the example described above with reference to FIG. 8, a condition related to the device being used may be determined (step S910), and if the condition related to the device being used is satisfied ("YES" in step S910), as shown in FIG. 9, it may be determined whether or not to procure an item (step S911). The following steps S912 and S913 are the same as steps S901 and S902, respectively, for option STM1.

このようにして本実施形態では、移動型選択肢に基づき応答がなされた場合に、移動型選択肢に対応付けられた移動先への移動関連処理が実行されるので、ユーザは、移動先へのアクセスのためのリンクを探す手間が省け、利便性が向上する。また、選択された移動型選択肢が、利用デバイスを表すメッセージ等を含む場合は、利用デバイスに係る条件が判定されることで、ユーザの意図しない端末装置20の利用に基づいて、移動先へのアクセスが実現されてしまうことを防止できる。また、移動型選択肢に対応する送信内容に、アイテムに関する情報が含まれる場合に、アイテム調達の要否が判定されるので、ユーザの意図しないタイミング(例えば準備が整っていないタイミング)で、移動先へのアクセスが実現されてしまうことを防止できる。このようなユーザの望まないアクセスを防止することで、処理負荷を低減できる。 In this embodiment, when a response is made based on a travel-type option, travel-related processing to the destination associated with the travel-type option is executed, so the user does not have to search for a link to access the destination, improving convenience. Also, when the selected travel-type option includes a message or the like representing the device to be used, the conditions related to the device to be used are determined, so that access to the destination based on use of the terminal device 20 that is not intended by the user can be prevented. Also, when information about an item is included in the transmission content corresponding to the travel-type option, the need for item procurement is determined, so that access to the destination can be prevented from being realized at a time that is not intended by the user (for example, when preparations are not complete). By preventing such access that is not desired by the user, the processing load can be reduced.

また、本実施形態では、複数の選択肢は、上述した選択肢STM1やSTM3のような、選択された場合に選択したユーザのステータスが変化する選択肢(第1選択肢の一例)以外にも、上述した選択肢STM2やSTM4のような、選択された場合でも選択したユーザのステータスが変化しない選択肢(第2選択肢の一例)を含んでよい。これにより、ステータスの変化を伴う選択肢を望まないタイミングや、逆に、ステータスの変化を伴う選択肢を望むタイミングなど、多様なタイミングに適合できる選択肢をユーザに提示できる。 In addition, in this embodiment, the multiple options may include options such as the above-mentioned options STM1 and STM3, which change the status of the selected user when selected (examples of first options), as well as options such as the above-mentioned options STM2 and STM4, which do not change the status of the selected user when selected (examples of second options). This makes it possible to present the user with options that can be adapted to a variety of timings, such as timings when an option that results in a status change is not desired, or conversely, timings when an option that results in a status change is desired.

なお、本実施形態において、メタバース空間に一のユーザが位置するときに、当該一のユーザに対して、他のユーザから新たな送信内容が送信された場合も、上述した複数の選択肢が、当該一のユーザに提示されてもよい。 In addition, in this embodiment, when a user is located in the metaverse space and another user sends new content to the user, the above-mentioned multiple options may be presented to the user.

次に、図10以降を参照して、上述した選択肢に関連した機能(以下、「選択肢関連機能」とも称する)について更に説明する。 Next, we will further explain the functions related to the above-mentioned options (hereinafter also referred to as "option-related functions") with reference to Figure 10 onwards.

以下では、選択肢関連機能に関連した処理を行う端末装置20の各要素(図1の端末通信部21~端末制御部25参照)が、情報処理システムの一例を実現するが、サーバ装置10が、情報処理システムの一例を実現してもよいし、複数の端末装置20が、協動して情報処理システムの一例を実現してもよい。また、サーバ装置10と1つ以上の端末装置20が、協動して情報処理システムの一例を実現してもよい。 In the following, each element of the terminal device 20 (see the terminal communication unit 21 to the terminal control unit 25 in FIG. 1) that performs processing related to the option-related function realizes an example of an information processing system, but the server device 10 may realize an example of an information processing system, or multiple terminal devices 20 may cooperate to realize an example of an information processing system. Also, the server device 10 and one or more terminal devices 20 may cooperate to realize an example of an information processing system.

図10は、選択肢関連機能に関連したサーバ装置10の機能ブロック図の一例である。図11は、ユーザ情報記憶部142内のデータの説明図である。図12は、アバター情報記憶部144内のデータの説明図である。 Figure 10 is an example of a functional block diagram of the server device 10 related to the option-related function. Figure 11 is an explanatory diagram of data in the user information storage unit 142. Figure 12 is an explanatory diagram of data in the avatar information storage unit 144.

サーバ装置10は、図10に示すように、ユーザ情報記憶部142及びアバター情報記憶部144を含む。なお、ユーザ情報記憶部142及びアバター情報記憶部144は、図1に示したサーバ記憶部12により実現できる。 As shown in FIG. 10, the server device 10 includes a user information storage unit 142 and an avatar information storage unit 144. The user information storage unit 142 and the avatar information storage unit 144 can be realized by the server storage unit 12 shown in FIG. 1.

また、サーバ装置10は、図10に示すように、ユーザ入力取得部150と、アバター処理部152と、描画処理部156とを含む。ユーザ入力取得部150から描画処理部156は、図1に示したサーバ制御部13により実現できる。 As shown in FIG. 10, the server device 10 also includes a user input acquisition unit 150, an avatar processing unit 152, and a drawing processing unit 156. The user input acquisition unit 150 to the drawing processing unit 156 can be realized by the server control unit 13 shown in FIG. 1.

なお、以下で説明するサーバ装置10の機能の一部又は全部は、適宜、端末装置20により実現されてもよい。例えば、アバター処理部152や描画処理部156の機能の一部又は全部は、端末装置20により実現されてもよい。また、ユーザ情報記憶部142及びアバター情報記憶部144の区分けや、ユーザ入力取得部150から描画処理部156の区分けは、説明の都合上であり、一部の機能部が、他の機能部の機能を実現してもよい。例えば、ユーザ情報記憶部142内のデータの一部又は全部は、アバター情報記憶部144内のデータに統合されてもよいし、別のデータベースに格納されてもよい。 Note that some or all of the functions of the server device 10 described below may be implemented by the terminal device 20 as appropriate. For example, some or all of the functions of the avatar processing unit 152 and the drawing processing unit 156 may be implemented by the terminal device 20. Also, the division into the user information storage unit 142 and the avatar information storage unit 144, and the division from the user input acquisition unit 150 to the drawing processing unit 156 are for convenience of explanation, and some functional units may implement the functions of other functional units. For example, some or all of the data in the user information storage unit 142 may be integrated with the data in the avatar information storage unit 144, or may be stored in a separate database.

ユーザ情報記憶部142には、各ユーザに関する情報が記憶される。各ユーザに関する情報は、例えばユーザ登録時に生成されてよく、その後、適宜、更新等されてよい。例えば、図11に示す例では、ユーザ情報記憶部142には、ユーザIDに対応付けて、ユーザ名、アバターID、プロフィール情報、所持デバイス情報、ステータス情報等が記憶されている。 The user information storage unit 142 stores information about each user. The information about each user may be generated, for example, when the user registers, and may then be updated as appropriate. For example, in the example shown in FIG. 11, the user information storage unit 142 stores a user name, avatar ID, profile information, possessed device information, status information, etc., in association with a user ID.

ユーザIDは、ユーザ登録時に自動的に生成されるIDである。 The user ID is automatically generated when the user registers.

ユーザ名は、各ユーザが自身で登録した名前であり、任意である。 User names are names registered by each user themselves and are arbitrary.

アバターIDは、ユーザが利用するアバターを表すIDである。アバターIDには、対応するアバターを描画するためのアバター描画情報(図12参照)が対応付けられてよい。なお、一のアバターIDに対応付けられるアバター描画情報は、対応するユーザからの入力等に基づいて追加や編集等が可能であってよい。 The avatar ID is an ID that represents the avatar used by the user. The avatar ID may be associated with avatar drawing information (see FIG. 12) for drawing the corresponding avatar. Note that the avatar drawing information associated with one avatar ID may be able to be added to or edited based on input from the corresponding user.

プロフィール情報は、ユーザプロフィール(又はアバタープロフィール)を表す情報であり、ユーザによる入力情報に基づいて生成される。例えば、プロフィール情報は、ユーザによる入力情報に基づいて生成されてもよい。また、プロフィール情報は、端末装置20上で生成されるユーザインタフェースを介して選択されて、JSON(JavaScript Object Notation)リクエスト等でサーバ装置10に提供されてもよい。 The profile information is information that represents a user profile (or an avatar profile) and is generated based on information input by the user. For example, the profile information may be generated based on information input by the user. In addition, the profile information may be selected via a user interface generated on the terminal device 20 and provided to the server device 10 by a JSON (JavaScript Object Notation) request or the like.

所持デバイス情報は、ユーザが所持する端末装置20に関する情報を含む。複数種類の端末装置20を有しているユーザには、対応する複数種類の端末装置20を特定可能な情報が、所持デバイス情報として記憶される。 The owned device information includes information about the terminal device 20 owned by the user. For a user who has multiple types of terminal devices 20, information that can identify the corresponding multiple types of terminal devices 20 is stored as the owned device information.

ステータス情報は、ユーザの現在のステータスを表す情報を含む。 The status information contains information that describes the user's current status.

アバター情報記憶部144には、各ユーザのアバターを描画するためのアバター描画情報が記憶される。図12に示す例では、アバター描画情報は、各アバターIDに、顔パーツID、髪型パーツID、服装パーツID等が対応付けられる。顔パーツID、髪型パーツID、服装パーツID等の容姿に係るパーツ情報は、アバターを特徴付けるパラメータであり、各ユーザにより選択されてよい。例えば、アバターに係る顔パーツID、髪型パーツID、服装パーツID等の容姿に係る情報は、複数種類用意される。また、顔パーツIDについては、顔の形、目、口、鼻等の各種類にそれぞれパーツIDが用意され、顔パーツIDに係る情報は、当該顔を構成する各パーツのIDの組み合わせで管理されてもよい。この場合、各アバターIDに紐付けられた容姿に係る各IDに基づいて、サーバ装置10のみならず端末装置20側においても各アバターを描画することが可能となる。 The avatar information storage unit 144 stores avatar drawing information for drawing the avatar of each user. In the example shown in FIG. 12, the avatar drawing information associates each avatar ID with a face part ID, a hairstyle part ID, a clothing part ID, and the like. Appearance-related part information such as face part ID, hairstyle part ID, clothing part ID, and the like is a parameter that characterizes an avatar, and may be selected by each user. For example, multiple types of appearance-related information such as face part ID, hairstyle part ID, clothing part ID, and the like related to an avatar are prepared. In addition, for the face part ID, a part ID is prepared for each type such as face shape, eyes, mouth, nose, and the like, and the information related to the face part ID may be managed as a combination of IDs of each part that constitutes the face. In this case, it is possible to draw each avatar not only on the server device 10 but also on the terminal device 20 side based on each appearance-related ID linked to each avatar ID.

ユーザ入力取得部150は、各ユーザによる各種ユーザ入力を、対応するユーザの端末装置20との通信を介して取得する。各種入力は、上述したとおりである。なお、各ユーザのステータスや利用デバイスは、ユーザ入力取得部150により取得されるユーザ入力(及び当該ユーザ入力とともに送信されうる端末情報等)に基づいて判定されてもよい。ユーザ入力取得部150は、その他、ユーザの所持デバイス情報(後述)やステータス情報(後述)等を更新するための情報を取得してもよい。 The user input acquisition unit 150 acquires various user inputs by each user through communication with the terminal device 20 of the corresponding user. The various inputs are as described above. The status and device used by each user may be determined based on the user input acquired by the user input acquisition unit 150 (and terminal information that may be transmitted together with the user input). The user input acquisition unit 150 may also acquire information for updating the user's possessed device information (described later) and status information (described later), etc.

アバター処理部152は、アバターごとに、対応する各ユーザによる各種入力に基づいて、アバターの動作(位置の変化や各部位の動き等)を決定する。また、アバター処理部152は、アバター間のチャット(会話)をメタバース空間内で実現してもよい。 The avatar processing unit 152 determines the avatar's behavior (changes in position, movements of each part, etc.) for each avatar based on various inputs by each corresponding user. The avatar processing unit 152 may also realize chats (conversations) between avatars within the metaverse space.

描画処理部156は、アバターを含む仮想空間の画像であって、端末装置20で視聴用の画像(端末用画像)を生成する。描画処理部156は、各アバターに対応付けられた仮想カメラに基づいて、各アバター用の画像(端末装置20用の画像)を生成する。 The drawing processing unit 156 generates an image of a virtual space including an avatar, which is an image to be viewed on the terminal device 20 (an image for the terminal device 20). The drawing processing unit 156 generates an image for each avatar (an image for the terminal device 20) based on a virtual camera associated with each avatar.

図13は、選択肢関連機能に関連した一の端末装置20の機能ブロック図の一例である。以下では、自ユーザとは、対応する一の端末装置20を所持するユーザであるとする。なお、一のユーザは、多様な種類の端末装置20を有しうる。従って、一の端末装置20に係る自ユーザと、他の一の端末装置20に係る自ユーザとは、同一となりうる。 Figure 13 is an example of a functional block diagram of a terminal device 20 related to the option-related function. In the following, the "own user" is assumed to be a user who owns a corresponding terminal device 20. Note that a user may have various types of terminal devices 20. Therefore, the "own user" related to a terminal device 20 and the "own user" related to another terminal device 20 may be the same.

なお、以下で説明する端末装置20の機能の一部又は全部は、適宜、サーバ装置10により実現されてもよい。例えば、選択肢生成部262やアイテム判定部264の機能の一部又は全部は、サーバ装置10により実現されてもよい。また、自ユーザ情報記憶部270及び所持アイテム記憶部272の区分けや、操作入力取得部260から支援処理部268の区分けは、説明の都合上であり、一部の機能部が、他の機能部の機能を実現してもよい。 Note that some or all of the functions of the terminal device 20 described below may be implemented by the server device 10 as appropriate. For example, some or all of the functions of the option generation unit 262 and the item determination unit 264 may be implemented by the server device 10. Also, the division into the own user information storage unit 270 and the possessed item storage unit 272, and the division from the operation input acquisition unit 260 to the support processing unit 268 are for the convenience of explanation, and some functional units may implement the functions of other functional units.

端末装置20は、操作入力取得部260と、送信内容取得部261(取得部の一例)と、選択肢生成部262と、アイテム判定部264(判定部の一例)と、応答処理部266と、支援処理部268と、自ユーザ情報記憶部270と、所持アイテム記憶部272とを含む。操作入力取得部260から支援処理部268は、図1に示した端末制御部25により実現できる。自ユーザ情報記憶部270及び所持アイテム記憶部272は、図1に示した端末記憶部22により実現できる。 The terminal device 20 includes an operation input acquisition unit 260, a transmission content acquisition unit 261 (an example of an acquisition unit), an option generation unit 262, an item determination unit 264 (an example of a determination unit), a response processing unit 266, a support processing unit 268, a user's own information storage unit 270, and a possessed item storage unit 272. The operation input acquisition unit 260 to the support processing unit 268 can be realized by the terminal control unit 25 shown in FIG. 1. The user's own information storage unit 270 and the possessed item storage unit 272 can be realized by the terminal storage unit 22 shown in FIG. 1.

操作入力取得部260は、端末装置20の入力部24を介して入力される自ユーザによる各種ユーザ入力を取得する。各種入力は、上述したとおりである。 The operation input acquisition unit 260 acquires various user inputs by the user himself/herself, which are input via the input unit 24 of the terminal device 20. The various inputs are as described above.

送信内容取得部261は、上述したように他ユーザからの送信内容を受信する。なお、送信内容は、上述したように、自ユーザを含む複数のユーザ間のチャット形式のコミュニケーションに関する。 The transmission content acquisition unit 261 receives transmission content from other users as described above. Note that, as described above, the transmission content relates to chat-style communication between multiple users, including the user himself/herself.

選択肢生成部262は、上述したように他ユーザからの送信内容に基づいて、図6等を参照して上述した複数の選択肢を生成し、自ユーザに提示する。選択肢生成部262は、生成した複数の選択肢を表示部23に表示することで、自ユーザに提示してよい。例えば、選択肢生成部262は、チャット画面において、時系列順の最新の位置付近に、複数の選択肢を位置付けて重畳表示させてもよい。 The option generation unit 262 generates the above-mentioned multiple options with reference to FIG. 6 etc. based on the content transmitted from the other user as described above, and presents them to the user. The option generation unit 262 may present the generated multiple options to the user by displaying them on the display unit 23. For example, the option generation unit 262 may position and superimpose the multiple options near the most recent position in chronological order on the chat screen.

選択肢生成部262は、上述したように、送信内容に基づいて移動型選択肢を生成する。例えば、上述した例のように、送信内容が、「今から場所Aに行かない?」である場合、選択肢生成部262は、場所Aに対応付けられた移動型選択肢を生成する。移動型選択肢は、例えば、場所Aへの移動が可能なリンクを含んでもよい。この場合、なお、場所Aへの移動が可能なリンクが、送信内容に含まれている場合は、当該リンクが利用されてもよい。他方、場所Aへの移動が可能なリンクが、送信内容に含まれていない場合、場所Aへの移動が可能なリンクは、選択肢生成部262により生成されてもよい。この場合、当該リンクは、自ユーザが有する端末装置20の種類ごとに生成されてもよい。 As described above, the option generation unit 262 generates a travel-type option based on the transmission content. For example, as in the example described above, if the transmission content is "Shall we go to location A now?", the option generation unit 262 generates a travel-type option associated with location A. The travel-type option may include, for example, a link that allows travel to location A. In this case, if a link that allows travel to location A is included in the transmission content, the link may be used. On the other hand, if a link that allows travel to location A is not included in the transmission content, a link that allows travel to location A may be generated by the option generation unit 262. In this case, the link may be generated for each type of terminal device 20 owned by the user.

選択肢生成部262は、上述したように、自ユーザに対応付けられている任意のパラメータに基づいて、複数の選択肢を生成してもよい。すなわち、選択肢生成部262は、自ユーザが所持する端末装置20の種類、自ユーザが所持するメタバース空間内のアイテム、自ユーザのステータス、及び、自ユーザと送信側ユーザ(今回の選択肢に係る送信内容を送信した他ユーザ)との関係のうちの、少なくともいずれか1つを含んでよい。 As described above, the option generation unit 262 may generate multiple options based on any parameter associated with the user. That is, the option generation unit 262 may include at least one of the following: the type of terminal device 20 owned by the user, an item in the metaverse space owned by the user, the user's status, and the relationship between the user and the sending user (the other user who sent the transmission content related to the current option).

例えば、選択肢生成部262は、選択肢に利用予定の端末装置20を含ませる場合に、自ユーザが所持する端末装置20の種類に基づいて、利用予定の端末装置20を決定してもよい。例えば、上述した例のように、送信内容が、「今から場所Aに行かない?」である場合、複数の選択肢がメッセージ「〇〇で行くね!」を含む場合、メッセージに含まれる○○は、自ユーザの所持する端末装置20の種類に応じて決定されてもよい。例えば、自ユーザの所持する端末装置20の種類が、スマートフォン及びヘッドマウントディスプレイである場合、「スマホでいくね!」と「HMDでいくね!」の2種類が生成されてもよい。この場合、例えば、自ユーザが所持していない種類の端末装置20に係るメッセージ、例えば「タブレットでいくね!」といったメッセージを含む選択肢が生成されない。これにより、複数の選択肢の精度(自ユーザに選択される可能性)を高めることができる。更に、同様の観点から、自ユーザの過去の利用デバイスの使用時間帯の傾向を分析して、待ち合わせ時間に合わせて利用可能性の高いデバイスを示す選択肢を優先表示させてもよい。
また、選択肢生成部262は、更に、スマートフォンと他の端末装置20とがBluetooth(登録商標)等で連携されているかどうかに応じて、利用予定の端末装置20を決定してもよい。これは、ヘッドマウントディスプレイを所有していても、その時に所持してなければ(例えば家にいなければ)ヘッドマウントディスプレイを利用できないためである。また、外出中等のような、ヘッドマウントディスプレイを即座に装着できない状況下において、例えばユーザがARグラスをすでに装着している状態であるときは、ARグラスを利用予定の端末装置20として決定してもよい。
また、選択肢生成部262は、更に、ユーザの現在地情報に基づいて、ユーザの現在地が自宅、会社、それ以外(移動中)等に応じて、利用予定の端末装置20を決定してもよい。これは、上述したように、ヘッドマウントディスプレイを所有していても、その時に所持してなければ(例えば自宅にいなければ)ヘッドマウントディスプレイを利用できないためである。例えば、ユーザの現在地が会社であれば、文字のみ又は音声のみでの対応が可能なスマートフォンが利用予定の端末装置20として決定され、ユーザの現在地が自宅であれば、ヘッドマウントディスプレイが利用予定の端末装置20として決定され、ユーザの現在地が変化中(すなわち移動中)であれば、ARグラスとスマートフォンの組み合わせが利用予定の端末装置20として決定されてよい。なお、ARグラスとスマートフォンの組み合わせは、移動中の場合のように、文字のみもしくは音声を聴くことができるが話すことができないといった状況に好適となる。なお、ユーザの現在地情報は、ユーザのステータス情報の一部としてユーザ入力取得部150により取得されてもよい。
For example, when the option generating unit 262 includes the terminal device 20 to be used in the options, the option generating unit 262 may determine the terminal device 20 to be used based on the type of the terminal device 20 owned by the user. For example, as in the above example, when the transmission content is "Shall we go to place A now?", if the multiple options include the message "Let's go with XX!", the XX included in the message may be determined according to the type of the terminal device 20 owned by the user. For example, when the types of the terminal device 20 owned by the user are a smartphone and a head mounted display, two types of options, "Let's go with a smartphone!" and "Let's go with an HMD!", may be generated. In this case, for example, an option including a message related to a type of terminal device 20 that the user does not own, such as a message "Let's go with a tablet!", is not generated. This can increase the accuracy of the multiple options (the possibility of being selected by the user). Furthermore, from the same viewpoint, the tendency of the time period during which the user's past devices were used may be analyzed, and an option indicating a device with high availability according to the meeting time may be preferentially displayed.
Furthermore, the option generating unit 262 may further determine the terminal device 20 to be used depending on whether the smartphone and the other terminal device 20 are linked by Bluetooth (registered trademark) or the like. This is because even if the user owns a head mounted display, the head mounted display cannot be used unless the user has the display at that time (for example, if the user is not at home). In addition, in a situation where the user cannot immediately wear the head mounted display, such as when the user is out and about, for example, when the user is already wearing AR glasses, the option generating unit 262 may determine the AR glasses as the terminal device 20 to be used.
In addition, the option generating unit 262 may further determine the terminal device 20 to be used depending on whether the user's current location is home, work, or other (on the move), based on the user's current location information. This is because, as described above, even if the user owns a head-mounted display, the head-mounted display cannot be used unless the user has the head-mounted display at that time (for example, if the user is not at home). For example, if the user's current location is a company, a smartphone capable of responding only by text or only by voice is determined as the terminal device 20 to be used, if the user's current location is at home, a head-mounted display is determined as the terminal device 20 to be used, and if the user's current location is changing (i.e., on the move), a combination of AR glasses and a smartphone may be determined as the terminal device 20 to be used. Note that the combination of AR glasses and a smartphone is suitable for a situation in which the user can only hear text or voice but cannot speak, such as when on the move. Note that the user's current location information may be acquired by the user input acquiring unit 150 as part of the user's status information.

また、例えば、選択肢生成部262は、自ユーザが所持するメタバース空間内のアイテムに応じて、選択肢に含ませてもよいアイテム名を決定してもよい。例えば、上述した例のように、送信内容が、「今から場所Aに行かない?ドレスコードは赤い服」である場合、複数の選択肢がメッセージ「△△で行くね!」を含む場合、メッセージに含まれる△△は、自ユーザの所持するアイテムに応じて決定されてもよい。例えば、自ユーザの所持するアイテムの種類が、赤のワンピース及び赤のチャイニーズドレスである場合、「ワンピでいくね!」と「ドレスでいくね!」の2種類が生成されてもよい。この場合、例えば、自ユーザが所持していない種類のアイテムに係るメッセージ、例えば「赤スーツでいくね!」といったメッセージを含む選択肢が生成されない。これにより、複数の選択肢の精度(自ユーザに選択される可能性)を高めることができる。なお、自ユーザが赤のアイテムを有していない場合は、それに応じて、「赤い服、買ってからいくね!」といった選択肢が生成されてもよい。 Also, for example, the option generation unit 262 may determine the item names that may be included in the options depending on the items in the metaverse space owned by the user. For example, as in the above example, when the content of the transmission is "Shall we go to place A now? The dress code is red clothes", if the multiple options include the message "I'll go in △△!", the △△ included in the message may be determined depending on the items owned by the user. For example, if the types of items owned by the user are a red dress and a red Chinese dress, two types of options, "I'll go in a dress!" and "I'll go in a dress!", may be generated. In this case, for example, an option including a message related to a type of item that the user does not own, such as a message "I'll go in a red suit!", is not generated. This can increase the accuracy of the multiple options (the possibility of being selected by the user). Note that if the user does not have a red item, an option such as "I'll go after buying red clothes!" may be generated accordingly.

また、例えば、選択肢生成部262は、自ユーザのステータスに応じて、当該ステータスを伝達するための選択肢を生成してもよい。例えば、自ユーザが就寝前である場合、選択肢生成部262は、“おやすみ”というメッセージを含む選択肢を生成してもよい。また、自ユーザが移動中である場合、選択肢生成部262は、“家についたら連絡するね”というメッセージを含む選択肢を生成してもよい。なお、移動中か否かは、端末装置20に内蔵されうる加速度センサや位置センサ(例えばGPS受信機に基づく位置センサ)からのセンサ情報に基づいて判定されてよい。 For example, the option generation unit 262 may generate an option for communicating the user's status according to the user's status. For example, if the user is about to go to bed, the option generation unit 262 may generate an option including a message such as "Good night." If the user is on the move, the option generation unit 262 may generate an option including a message such as "I'll contact you when I get home." Whether the user is on the move may be determined based on sensor information from an acceleration sensor or a position sensor (e.g., a position sensor based on a GPS receiver) that may be built into the terminal device 20.

また、例えば、選択肢生成部262は、自ユーザと送信側ユーザ(今回の選択肢に係る送信内容を送信した他ユーザ)との関係に応じて、選択肢に含まれるメッセージの表現方法(言葉遣いなど)を変化させてもよい。例えば、送信側ユーザが仕事先のクライアントである場合には、丁寧な言葉遣いのメッセージを含む選択肢が生成され、送信側ユーザが同期である場合には、フランクなメッセージを含む選択肢が生成されてもよい。 In addition, for example, the option generation unit 262 may change the way messages included in the options are expressed (such as the language used) depending on the relationship between the user and the sending user (the other user who sent the content related to the current option). For example, if the sending user is a business client, an option including a politely worded message may be generated, and if the sending user is a synchronous user, an option including a frank message may be generated.

その他、選択肢生成部262は、進行中のチャットのテーマやチャットのメンバ等に応じて、選択肢自体や、選択肢に含まれるメッセージの表現方法(言葉遣いなど)等を変化させてもよい。 In addition, the option generation unit 262 may change the options themselves or the way messages contained in the options are expressed (such as wording) depending on the theme of the ongoing chat, the members of the chat, etc.

選択肢生成部262は、提示した複数の選択肢のうちの、自ユーザにより選択された選択肢情報(実績データ)に基づいて、機械学習を実行してもよい。この際、自ユーザにより選択された選択肢と、選択された際の自ユーザに対応付けられている各パラメータの値との関係が機械学習されてもよい。この場合、自ユーザの好みや選択傾向に適合した選択肢を提示できる。また、時間帯ごとの利用デバイスの傾向等も学習することで、複数の選択肢の精度(自ユーザに選択される可能性)を高めることができる。 The option generation unit 262 may perform machine learning based on option information (performance data) selected by the user from among the multiple options presented. At this time, the relationship between the option selected by the user and the values of each parameter associated with the user at the time of selection may be machine learned. In this case, options that match the preferences and selection tendencies of the user can be presented. In addition, by learning the trends of devices used by each time period, the accuracy of the multiple options (the likelihood of being selected by the user) can be improved.

また、選択肢生成部262は、選択肢に係るスタンプを、自ユーザに係るアバターを利用して生成してもよい。この際、自ユーザに係るアバターの服装に応じて、同じ内容のスタンプであっても、異なる服装のアバターが表現されてもよい。 The option generating unit 262 may also generate stamps related to the options using an avatar related to the user. In this case, even if the stamps have the same content, the avatar may be depicted in different clothes depending on the clothes of the avatar related to the user.

このようにして本実施例によれば、選択肢生成部262により、自ユーザに選択される可能性が高い選択肢を生成できるので、選択肢に対応する応答内容を手動で入力する負荷を低減できることに加えて、端末装置20を介して所望の選択肢を探し出すユーザ負荷をも低減できる。例えば、自ユーザがスマートフォンを利用している状況下で、選択肢を出すことで、自ユーザは、スマートフォンのような比較的小さな画面内で所望するスタンプを探したりテキストを入力したりする負荷から解放される。その結果、自ユーザは、チャット中に迅速に所望する返答をすることができる。また、例えば自ユーザがヘッドマウントディスプレイを利用している状況下では、自ユーザは、コントローラを使ってバーチャルキーボードでタイピングしたりする負荷から解放される。その結果、自ユーザは、チャット中に迅速に所望する返答をすることができる。なお、本実施例において、選択肢生成部262により一度に生成される選択肢の数は、出力される端末装置20の種類に応じて変化されてもよい。例えば、スマートフォンのような比較的小さな画面を有する端末装置20を自ユーザが利用している状況下では、選択肢生成部262により一度に生成される選択肢の数は、比較的少なくてよい。 In this way, according to this embodiment, the option generating unit 262 can generate options that are likely to be selected by the user, so that in addition to reducing the burden of manually inputting response content corresponding to the options, the user's burden of searching for a desired option via the terminal device 20 can also be reduced. For example, in a situation where the user is using a smartphone, by displaying options, the user is relieved from the burden of searching for a desired stamp or inputting text on a relatively small screen such as a smartphone. As a result, the user can quickly make a desired reply during a chat. Also, for example, in a situation where the user is using a head-mounted display, the user is relieved from the burden of typing on a virtual keyboard using a controller. As a result, the user can quickly make a desired reply during a chat. Note that in this embodiment, the number of options generated at one time by the option generating unit 262 may be changed depending on the type of the terminal device 20 to which the options are output. For example, in a situation where the user is using a terminal device 20 having a relatively small screen such as a smartphone, the number of options generated at one time by the option generating unit 262 may be relatively small.

アイテム判定部264は、移動型選択肢に基づく応答が自ユーザによりなされた場合に、自ユーザが、所定アイテムを所持しているか否かを判定する。所定アイテムは、アバターに装着可能なアイテムのうちの、所定条件を満たすアイテムであってよい。所定条件は、送信内容取得部261により取得した送信内容に基づいて設定されてよい。例えば、上述した例のように、送信内容が、「今から場所Aに行かない?ドレスコードは赤い服」である場合、所定条件を満たすアイテムは、“赤い色の服”等に設定されてよい。また、送信内容が、「今から場所Aに行かない?今日の色は赤」である場合、所定条件を満たすアイテムは、“赤い色を有する任意のアイテム”等に設定されてよい。 When the user responds based on the movement-type option, the item determination unit 264 determines whether the user has a specified item. The specified item may be an item that can be worn by the avatar and satisfies a specified condition. The specified condition may be set based on the transmission content acquired by the transmission content acquisition unit 261. For example, as in the above example, if the transmission content is "Shall we go to location A now? The dress code is red clothes", the item that satisfies the specified condition may be set to "red clothes" or the like. Also, if the transmission content is "Shall we go to location A now? Today's color is red", the item that satisfies the specified condition may be set to "any item that has the color red", or the like.

また、アイテム判定部264は、移動型選択肢に基づく応答が自ユーザによりなされた場合であって、移動型選択肢が利用デバイスを含む場合に、自ユーザが、当該利用デバイスに対応する端末装置20を利用開始したか否かを判定する。例えば、応答に係る移動型選択肢が「HMDでいくね!」を含む場合、アイテム判定部264は、自ユーザがヘッドマウントディスプレイを利用しているか否かを判定する。なお、この場合、アイテム判定部264は、サーバ装置10からの情報に基づいて、利用デバイスを判定してもよい。 In addition, when a response based on a mobility option is made by the user himself/herself, and the mobility option includes a device to be used, the item determination unit 264 determines whether or not the user himself/herself has started using the terminal device 20 corresponding to the device to be used. For example, when the mobility option related to the response includes "Let's go with an HMD!", the item determination unit 264 determines whether or not the user himself/herself is using a head-mounted display. In this case, the item determination unit 264 may determine the device to be used based on information from the server device 10.

応答処理部266は、自ユーザによる入力に基づいて、上述した複数の選択肢のうちの一の選択肢が選択された場合に、当該一の選択肢に基づく応答を行うとともに、当該一の選択肢に応じて後続処理を実行してよい。当該一の選択肢に応じて後続処理は、当該一の選択肢の属性(例えば上述した直接応答型、間接応答型等)に応じて決定されてもよい。例えば、当該一の選択肢が、上述した所定フラグの値“0”が対応付けられた選択肢である場合と、所定フラグの値“1”が対応付けられた選択肢である場合とで、異なる後続処理が実行されてもよい。所定フラグの値“1”が対応付けられた選択肢(送信内容に対する応答として意味をなす選択肢)の場合、なんらかの後続処理(例えば、自ユーザに係るアバターを遷移する処理や、自ユーザに係るアバターをチャットの参加者のリストに追加する処理など)が実行されてよい。他方、所定フラグの値“0”が対応付けられた選択肢(送信内容に対する応答として意味をなさない選択肢)の場合、なんら後続処理が実行されなくてもよい。 When one of the above-mentioned multiple options is selected based on an input by the user, the response processing unit 266 may respond based on the one option and execute a subsequent process according to the one option. The subsequent process according to the one option may be determined according to the attribute of the one option (e.g., the above-mentioned direct response type, indirect response type, etc.). For example, different subsequent processes may be executed when the one option is associated with the above-mentioned predetermined flag value "0" and when the one option is associated with the predetermined flag value "1". When the predetermined flag value "1" is associated with the option (an option that is meaningful as a response to the transmitted content), some subsequent process (e.g., a process of transitioning an avatar related to the user, a process of adding an avatar related to the user to a list of chat participants, etc.) may be executed. On the other hand, when the predetermined flag value "0" is associated with the option (an option that is not meaningful as a response to the transmitted content), no subsequent process may be executed.

例えば、応答処理部266は、自ユーザによる入力に基づいて、上述した移動型選択肢に基づく応答がなされた場合、当該応答に応じた移動関連処理を実行する。移動関連処理は、上述したとおりである。例えば、自ユーザによる応答に係る移動型選択肢が「HMDでいくね!」を含む場合、応答処理部266は、アイテム判定部264によりヘッドマウントディスプレイの利用が検出された場合に、移動関連処理を実行してもよい。これにより、ヘッドマウントディスプレイを着用してからの移動先の選択操作などが必要でなくなり、自ユーザはスムーズに所望の移動を実現できる。また、メタバース空間での待ち合わせ場所への移動も選択肢の選択によって自動的に行われることで、ヘッドマウントディスプレイを付けての移動が減り、ユーザのVR酔いなどの負荷を軽減することができる。 For example, when a response based on the above-mentioned movement-type option is made based on the input by the user himself/herself, the response processing unit 266 executes movement-related processing according to the response. The movement-related processing is as described above. For example, when the movement-type option related to the response by the user himself/herself includes "I'll go with the HMD!", the response processing unit 266 may execute movement-related processing when the item determination unit 264 detects the use of a head-mounted display. This eliminates the need to select a destination after putting on the head-mounted display, and the user himself/herself can smoothly achieve the desired movement. In addition, movement to a meeting place in the metaverse space is also automatically performed by selecting an option, which reduces movement while wearing a head-mounted display and reduces the burden on the user, such as VR sickness.

また、応答処理部266は、常時接続モードにおいて、自動的に送信内容に対する返信内容に関する選択肢を決定し、かつ、当該選択肢に基づく応答(第2応答の一例)を自動的に行ってもよい。常時接続モードとは、上述した常時接続状態が形成されるモードである。なお、動作モードは、常時接続モード以外にも複数のモードが設定可能であってよい。常時接続モードは、自ユーザからの入力に応じて形成されてもよいし、自ユーザのステータスに応じて自動的に形成されてもよい。後者の場合、例えば自ユーザが就寝中や食事中である場合等、あらかじめ規定されたステータスである場合に、常時接続モードが自動的に形成されてもよい。 In addition, in the constant connection mode, the response processing unit 266 may automatically determine an option for the reply content to the transmitted content, and automatically perform a response based on the option (an example of a second response). The constant connection mode is a mode in which the constant connection state described above is formed. Note that the operation mode may be set to a plurality of modes other than the constant connection mode. The constant connection mode may be formed according to an input from the user, or may be automatically formed according to the user's status. In the latter case, the constant connection mode may be automatically formed when the user is in a predefined status, such as when the user is sleeping or eating.

また、応答処理部266は、常時接続モードにおいて、自ユーザのステータスを他のユーザに通知する機能を実現してもよい。例えば、応答処理部266は、自ユーザのステータスの変化があった場合に、その旨を表す応答を自動的に行ってもよい。具体的には、自ユーザが、ヘッドマウントディスプレイの装着状態へ変化した場合、その旨を表すメッセージやスタンプ等が、常時接続モードに係るチャットルームに投稿してもよい。かかるステータスの変化の自動的な応答は、移動型選択肢に基づく応答がなされた場合に実行されてもよい。この場合、自ユーザのステータスを気にする他のユーザに、自ユーザの状態(例えばもうすぐ待ち合わせ場所に着くのかどうかに係る各種状態)を自動的に知らせることができる。その結果、各ユーザが待ち合わせ等に係るやり取りのための入力や通信を効率化でき、処理負荷を低減できる。 The response processing unit 266 may also realize a function of notifying other users of the user's status in the always-on mode. For example, the response processing unit 266 may automatically respond to a change in the user's status when the user's status changes. Specifically, when the user changes to a head-mounted display wearing state, a message or stamp indicating the change may be posted in the chat room related to the always-on mode. Such an automatic response to a change in status may be executed when a response based on a mobile option is made. In this case, other users who are concerned about the user's status can be automatically notified of the user's status (for example, various conditions related to whether the user will arrive at the meeting place soon). As a result, each user can efficiently input and communicate for interactions related to meetings, etc., and the processing load can be reduced.

支援処理部268は、移動型選択肢に基づく応答が自ユーザによりなされた場合に、移動型選択肢に関連した所定アイテムの装着又は取得を支援又は実現する。例えば、支援処理部268は、アイテム判定部264により自ユーザが所定アイテムを所持していると判定された場合に、自ユーザに係るアバターへの所定アイテムの装着を自動的に実現してもよいし、装着可能な複数の所定アイテムを自ユーザが選択可能となるように提示してもよい。また、支援処理部268は、アイテム判定部264により自ユーザが所定アイテムを所持していないと判定された場合に、所定アイテムを調達(取得)可能な場所への移動が可能なリンクを生成したり、当該場所への自動的に移動を実現したりしてもよい。 When the user responds based on the travel-type option, the support processing unit 268 supports or realizes the wearing or acquisition of a specific item related to the travel-type option. For example, when the item determination unit 264 determines that the user possesses a specific item, the support processing unit 268 may automatically realize the wearing of the specific item on the avatar related to the user, or may present a plurality of wearable specific items so that the user can select from them. In addition, when the item determination unit 264 determines that the user does not possess the specific item, the support processing unit 268 may generate a link that enables travel to a location where the specific item can be procured (obtained), or may realize automatic travel to that location.

自ユーザ情報記憶部270は、上述したサーバ装置10のユーザ情報記憶部142において記憶される各ユーザに関する情報のうちの、自ユーザに関する情報が記憶される。なお、端末装置20には、自ユーザ以外にも、例えばフレンド関係にある他ユーザに関する情報の一部が記憶されてもよい。 The user information storage unit 270 stores information about the user himself/herself among the information about each user stored in the user information storage unit 142 of the server device 10 described above. Note that the terminal device 20 may also store, in addition to the user himself/herself, some of the information about other users who are friends with the user, for example.

所持アイテム記憶部272は、自ユーザが所持しているアイテムを表す情報が記憶される。アイテムは、自ユーザに係るアバターに装着可能なアイテム(例えば服、靴等)や同アバターの容姿を変化させることが可能なアイテムを含んでよい。 The possessed item memory unit 272 stores information representing items possessed by the user. Items may include items that can be worn by the avatar related to the user (e.g., clothes, shoes, etc.) and items that can change the appearance of the avatar.

以上、各実施例について詳述したが、特定の実施例に限定されるものではなく、特許請求の範囲に記載された範囲内において、種々の変形及び変更が可能である。また、前述した実施例の構成要素の全部又は複数を組み合わせることも可能である。 Although each embodiment has been described in detail above, it is not limited to a specific embodiment, and various modifications and changes are possible within the scope of the claims. It is also possible to combine all or some of the components of the above-mentioned embodiments.

1 チャット関連支援システム
3 ネットワーク
10 サーバ装置
11 サーバ通信部
12 サーバ記憶部
13 サーバ制御部
20 端末装置
21 端末通信部
22 端末記憶部
23 表示部
24 入力部
25 端末制御部
142 ユーザ情報記憶部
144 アバター情報記憶部
150 ユーザ入力取得部
152 アバター処理部
156 描画処理部
260 操作入力取得部
261 送信内容取得部
262 選択肢生成部
264 アイテム判定部
266 応答処理部
268 支援処理部
270 自ユーザ情報記憶部
272 所持アイテム記憶部
1 Chat-related support system 3 Network 10 Server device 11 Server communication unit 12 Server storage unit 13 Server control unit 20 Terminal device 21 Terminal communication unit 22 Terminal storage unit 23 Display unit 24 Input unit 25 Terminal control unit 142 User information storage unit 144 Avatar information storage unit 150 User input acquisition unit 152 Avatar processing unit 156 Drawing processing unit 260 Operation input acquisition unit 261 Transmission content acquisition unit 262 Choice generation unit 264 Item determination unit 266 Response processing unit 268 Support processing unit 270 Own user information storage unit 272 Possessed item storage unit

Claims (16)

複数のユーザ間のチャット形式のコミュニケーションに係る情報処理を行う情報処理システムであって、
送信側から送信される送信内容を取得する取得部と、
前記送信内容に対する受信側からの返信内容に関する複数の選択肢を生成する選択肢生成部とを備え
前記複数の選択肢は、電子機器を介して視認可能な仮想空間内の移動先に対応付けられた第1選択肢を含み、
一のチャットにおいて前記移動先は、前記送信内容に基づいて決定される、情報処理システム。
An information processing system for processing information related to chat-style communication between a plurality of users,
An acquisition unit that acquires transmission contents transmitted from a transmitting side;
an option generating unit that generates a plurality of options regarding a reply content from a receiving side in response to the transmitted content, the plurality of options including a first option associated with a destination in a virtual space visible through an electronic device,
An information processing system, wherein the destination in one chat is determined based on the transmitted content.
一の前記第1選択肢に基づく第1応答がなされた場合に、前記第1応答がなされた前記第1選択肢に対応付けられた前記移動先への移動関連処理を実行する応答処理部を更に備え、
前記移動関連処理は、前記移動先へ移動させる処理、及び、前記移動先への移動を可能とする表示を出力する処理のうちの少なくともいずれか一方を含む、請求項1に記載の情報処理システム。
a response processing unit that, when a first response based on one of the first options is made, executes a movement-related process to the movement destination associated with the first option to which the first response is made,
The information processing system according to claim 1 , wherein the movement-related process includes at least one of a process of moving to the movement destination and a process of outputting a display enabling movement to the movement destination.
前記応答処理部は、前記移動先へのリンクを生成する、請求項2に記載の情報処理システム。 The information processing system according to claim 2, wherein the response processing unit generates a link to the destination. 前記応答処理部は、複数種類の前記電子機器のうちの前記受信側のユーザにより利用される前記電子機器の種類に応じた前記リンクを生成する、請求項3に記載の情報処理システム。 The information processing system according to claim 3, wherein the response processing unit generates the link according to the type of electronic device used by the receiving user among the multiple types of electronic devices. 前記第1選択肢は、一の前記送信内容に対して複数生成され、
複数の前記第1選択肢のうちの少なくとも1つは、前記受信側が所持する電子機器、前記受信側が所持する仮想空間内のアイテム、前記受信側のステータス、及び、前記受信側と前記送信側との関係のうちの、少なくともいずれか1つの第1パラメータに基づいて生成される、請求項1に記載の情報処理システム。
A plurality of the first options are generated for one of the transmission contents,
2. The information processing system of claim 1, wherein at least one of the plurality of first options is generated based on at least one first parameter selected from the group consisting of an electronic device possessed by the receiving party, an item in a virtual space possessed by the receiving party, a status of the receiving party, and a relationship between the receiving party and the sending party.
前記第1選択肢は、ネットワークに接続可能な一の電子機器を表す又は示唆するメッセージ又は文字、記号若しくは画像を含み、
前記第1選択肢に基づく前記第1応答がなされた場合に、前記一の電子機器が利用されたか否かを判定する判定部を更に含み、
前記応答処理部は、前記判定部により前記一の電子機器が利用されたと判定された場合に、前記移動関連処理を実行する、請求項2に記載の情報処理システム。
the first option includes a message, character, symbol, or image that represents or suggests an electronic device that can be connected to a network;
a determination unit that determines whether or not the one electronic device has been used when the first response based on the first option has been made,
The information processing system according to claim 2 , wherein the response processing unit executes the movement-related process when the determination unit determines that the one electronic device has been used.
前記画像は、チャットのスタンプを含む、請求項6に記載の情報処理システム。 The information processing system of claim 6, wherein the image includes a chat stamp. 前記複数の選択肢は、前記受信側のステータスの変更を伴う前記第1選択肢、又は、前記受信側のステータスの変更を伴わない第2選択肢を含む、請求項1に記載の情報処理システム。 The information processing system according to claim 1, wherein the multiple options include the first option that involves a change in the status of the receiving side, or a second option that does not involve a change in the status of the receiving side. 前記複数の選択肢は、応答としての意味があるか否かに関連する第2パラメータの値に関して、第1の値が対応付けられた第3選択肢と、前記第1の値とは異なる第2の値が対応付けられた第4選択肢とを含む、請求項1に記載の情報処理システム。 The information processing system of claim 1, wherein the multiple options include a third option associated with a first value and a fourth option associated with a second value different from the first value, with respect to a value of a second parameter related to whether or not the response is meaningful. 一の前記第1選択肢に基づく第1応答がなされた場合に、前記第1応答がなされた前記第1選択肢に対応付けられた所定アイテムの装着又は取得を支援又は実現する支援処理部を更に備える、請求項1に記載の情報処理システム。 The information processing system according to claim 1, further comprising a support processing unit that, when a first response based on one of the first options is made, supports or realizes the wearing or acquisition of a specific item associated with the first option to which the first response is made. 一の前記第1選択肢に基づく前記第1応答がなされ、かつ、前記所定アイテムの装着又は取得が実現された場合に、前記第1応答がなされた前記第1選択肢に対応付けられた前記移動先への移動関連処理を実行する応答処理部を更に備え、
前記移動関連処理は、前記移動先へ移動させる処理、及び、前記移動先への移動を可能とする表示を出力する処理のうちの少なくともいずれか一方を含む、請求項10に記載の情報処理システム。
a response processing unit that, when the first response based on one of the first options is made and the wearing or acquisition of the predetermined item is realized, executes a movement-related process for the movement destination associated with the first option to which the first response is made,
The information processing system according to claim 10 , wherein the movement-related process includes at least one of a process of moving to the movement destination and a process of outputting a display enabling movement to the movement destination.
前記所定アイテムは、前記送信内容に基づいて決定される、請求項10に記載の情報処理システム。 The information processing system according to claim 10, wherein the predetermined items are determined based on the transmission contents. 前記受信側が所持する前記電子機器は、ネットワークに接続した状態を維持する常時接続モードを有し、
前記応答処理部は、前記常時接続モードにおいて、自動的に前記送信内容に対する前記返信内容に関する選択肢を決定し、かつ、前記選択肢に基づく第2応答を自動的に行う、請求項2、3、4、7、11のうちのいずれか1項に記載の情報処理システム。
the electronic device possessed by the receiving side has a constant connection mode in which it maintains a state of being connected to a network,
12. The information processing system according to claim 2, wherein the response processing unit, in the constant connection mode, automatically determines options regarding the reply content to the transmitted content, and automatically performs a second response based on the options.
前記応答処理部は、前記常時接続モードにおいて、前記受信側のユーザの状態が所定状態である場合に、自動的に前記第2応答を行う、請求項13に記載の情報処理システム。 The information processing system according to claim 13, wherein the response processing unit automatically performs the second response when the state of the receiving user is a predetermined state in the constant connection mode. 複数のユーザ間のチャット形式のコミュニケーションに係る情報処理用のプログラムであって、
送信側から送信される送信内容を取得する取得処理と、
前記送信内容に対する受信側からの返信内容に関する複数の選択肢を生成する選択肢生成処理とを、コンピュータに実行させ、
前記複数の選択肢は、電子機器を介して視認可能な仮想空間内の移動先に対応付けられた第1選択肢を含み、
一のチャットにおいて前記移動先は、前記送信内容に基づいて決定される、プログラム。
A program for processing information related to chat-style communication between multiple users,
An acquisition process for acquiring transmission contents sent from the sending side;
and generating a plurality of options regarding a reply content from a receiving side in response to the transmitted content.
the plurality of options includes a first option associated with a destination in a virtual space viewable via an electronic device;
A program in which the destination in one chat is determined based on the transmitted content.
複数のユーザ間のチャット形式のコミュニケーションに係る情報処理方法であって、
送信側から送信される送信内容を取得し、
前記送信内容に対する受信側からの返信内容に関する複数の選択肢を生成することを含み、
前記複数の選択肢は、電子機器を介して視認可能な仮想空間内の移動先に対応付けられた第1選択肢を含み、
一のチャットにおいて前記移動先は、前記送信内容に基づいて決定される、情報処理方法。
An information processing method for chat-style communication between a plurality of users, comprising:
Acquire the contents of the transmission sent from the sender,
generating a plurality of options for a reply from a recipient to the transmitted content;
the plurality of options includes a first option associated with a destination in a virtual space viewable via an electronic device;
An information processing method, wherein the destination in one chat is determined based on the transmitted content.
JP2022204711A 2022-12-21 2022-12-21 Information processing system, information processing method, and program Active JP7265085B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022204711A JP7265085B1 (en) 2022-12-21 2022-12-21 Information processing system, information processing method, and program
JP2023065636A JP2024089598A (en) 2022-12-21 2023-04-13 Information processing system, information processing method, and program
US18/214,927 US20240214485A1 (en) 2022-12-21 2023-06-27 Information processing system, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022204711A JP7265085B1 (en) 2022-12-21 2022-12-21 Information processing system, information processing method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023065636A Division JP2024089598A (en) 2022-12-21 2023-04-13 Information processing system, information processing method, and program

Publications (2)

Publication Number Publication Date
JP7265085B1 JP7265085B1 (en) 2023-04-25
JP2024089379A true JP2024089379A (en) 2024-07-03

Family

ID=86096129

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022204711A Active JP7265085B1 (en) 2022-12-21 2022-12-21 Information processing system, information processing method, and program

Country Status (1)

Country Link
JP (1) JP7265085B1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9332043B1 (en) * 2013-04-12 2016-05-03 Kabam, Inc. System and method for facilitating user interaction with a virtual space through a graphical chat interface
JP2019136066A (en) * 2018-02-06 2019-08-22 グリー株式会社 Application processing system, application processing method, and application processing program
JP7312202B2 (en) * 2021-01-22 2023-07-20 株式会社Nttコノキュー Processing device, processing method and processing program

Also Published As

Publication number Publication date
JP7265085B1 (en) 2023-04-25

Similar Documents

Publication Publication Date Title
US10097492B2 (en) Storage medium, communication terminal, and display method for enabling users to exchange messages
CN109885367B (en) Interactive chat implementation method, device, terminal and storage medium
US20160231878A1 (en) Communication system, communication terminal, storage medium, and display method
EP3996365A1 (en) Information processing device and program
JP6883140B1 (en) Information processing system, information processing method and computer program
US11989811B2 (en) Information processing system, information processing method, and computer program
CN117917047A (en) Parallel video call and artificial reality space
JP2013162836A (en) Game server device, program and game device
JP2024063062A (en) Information processing system, information processing method, and information processing program
JP2023075879A (en) Information processing system, information processing method and information processing program
JP2024026328A (en) Information processing system, information processing method, and information processing program
US12015759B2 (en) Information processing system, information processing method, and information processing program
US20220335700A1 (en) Computer program, method, and server
JP7265085B1 (en) Information processing system, information processing method, and program
JP7245890B1 (en) Information processing system, information processing method, information processing program
JP2024089598A (en) Information processing system, information processing method, and program
JP2022097475A (en) Information processing system, information processing method, and computer program
JP7454166B2 (en) Information processing system, information processing method, and storage medium
JP7335572B1 (en) Information processing system, control method, and server device
US20240152311A1 (en) Information processing system, information processing method, and computer program
JP7480965B2 (en) Computer program, method, and server
US20240198235A1 (en) Information processing system, information processing method, and computer program
JP7376030B1 (en) Information processing system, information processing method and computer program
JP7421762B1 (en) Information processing system, control method, and server device
US20240106778A1 (en) Information processing system, control method, and server device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221221

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20221221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230413

R150 Certificate of patent or registration of utility model

Ref document number: 7265085

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150