JP2013175066A - Method, system, server device, terminal device, and program for distributing data constituting three-dimensional figure - Google Patents

Method, system, server device, terminal device, and program for distributing data constituting three-dimensional figure Download PDF

Info

Publication number
JP2013175066A
JP2013175066A JP2012039447A JP2012039447A JP2013175066A JP 2013175066 A JP2013175066 A JP 2013175066A JP 2012039447 A JP2012039447 A JP 2012039447A JP 2012039447 A JP2012039447 A JP 2012039447A JP 2013175066 A JP2013175066 A JP 2013175066A
Authority
JP
Japan
Prior art keywords
data
terminal device
server device
character
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012039447A
Other languages
Japanese (ja)
Other versions
JP5756969B2 (en
Inventor
Tatsuro Kuroda
黒田達郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KURODA AND PARTNERS KK
Original Assignee
KURODA AND PARTNERS KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KURODA AND PARTNERS KK filed Critical KURODA AND PARTNERS KK
Priority to JP2012039447A priority Critical patent/JP5756969B2/en
Publication of JP2013175066A publication Critical patent/JP2013175066A/en
Application granted granted Critical
Publication of JP5756969B2 publication Critical patent/JP5756969B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

PROBLEM TO BE SOLVED: To enable a three-dimensional figure to be utilized in various application programs.SOLUTION: Various component data indicative of the appearance, voice, motion, and words of a three-dimensional figure created by a developer is uploaded in a three-dimensional figure management server device 11 from a terminal device 12 for the developer, and is stored so as to be distributable. The developer downloads component data required for development from the three-dimensional figure management server device 11 to the terminal device 12 for the developer, utilizes or corrects it, and performs development of the three-dimensional figure. Meanwhile, a terminal device 13 for an end user uses component data downloaded from the three-dimensional figure management server device 11 to the terminal device 13 for the end user in execution of an application by using an API for the three-dimensional figure, and generates a character of the three-dimensional figure in a local virtual space.

Description

本発明は、コンピュータにより仮想的に実現される3次元フィギアを構成するデータを配信するための技術に関する。   The present invention relates to a technique for distributing data constituting a three-dimensional figure virtually realized by a computer.

コンピュータにより仮想的に実現される3次元フィギア(本願において、単に「3次元フィギア」という)がある。   There is a three-dimensional figure (in the present application, simply referred to as “three-dimensional figure”) virtually realized by a computer.

3次元フィギアは、コンピュータのディスプレイ内において、アプリケーションプログラムの指示に従いアニメーション表示される立体画像(本願において、「立体画像」とは、視差により立体的に知覚される画像に限定されず、陰影表現や遠近表現等により観る者にとって立体的に見える画像を広く含む)である。   A three-dimensional figure is a three-dimensional image that is animated in accordance with an instruction of an application program in a computer display (in this application, “stereoscopic image” is not limited to an image that is perceived stereoscopically by parallax, Widely includes images that are stereoscopically viewed by those who view them by perspective expression or the like.

多くの場合、3次元フィギアの動きには音声の発音が伴う。すなわち、コンピュータは、アプリケーションプログラムの指示に従い、立体画像をディスプレイにアニメーション表示すると同時に、立体画像の動きに応じて音声再生部から音声の発音を行う。その結果、ユーザは視聴覚により、仮想的な人物、動物、ロボットなど(以下、「キャラクタ」という)の存在を体感することができる。   In many cases, the movement of the three-dimensional figure is accompanied by voice pronunciation. That is, the computer displays a three-dimensional image on the display according to an instruction of the application program, and at the same time, produces a sound from the sound reproduction unit according to the movement of the three-dimensional image. As a result, the user can experience the presence of virtual persons, animals, robots, and the like (hereinafter referred to as “characters”) through audiovisual sense.

3次元フィギアが最も盛んに利用されている分野はコンピュータゲームの分野である。例えば対戦型のゲームやRPG(Role-Playing Game)などにおいては、仮想的な世界において複数のキャラクタが登場し、それらのキャラクタが互いに戦闘をしたり、対話をしたりすることで、ゲームが進行していく。仮想的な世界におけるリアル性を高めるためには、2次元画像より3次元画像が、また静止画より動画が望ましい。そのため、動きのある3次元画像を実現可能な3次元フィギアがコンピュータゲームにおいては広く利用されている。   The field where 3D figures are most actively used is the field of computer games. For example, in a competitive game or RPG (Role-Playing Game), multiple characters appear in a virtual world, and these characters battle each other and interact with each other to advance the game. I will do it. In order to improve realism in the virtual world, a three-dimensional image is preferable to a two-dimensional image, and a moving image is preferable to a still image. Therefore, a three-dimensional figure capable of realizing a three-dimensional image with movement is widely used in computer games.

コンピュータゲームに登場するキャラクタをサーバ装置により管理する仕組みが提案されている。例えば、特許文献1において提案されている仕組みによれば、キャラクタを示すキャラクタデータの属性がサーバ装置を介して公開され、ユーザは他のユーザの使用しているどのキャラクタが現在どのゲームに参加しているか、といった情報を知ることができる。   A mechanism for managing characters appearing in a computer game by a server device has been proposed. For example, according to the mechanism proposed in Patent Document 1, the attribute of character data indicating a character is made public via a server device, and the user participates in which game which character is currently used by another user. You can know information such as.

特開2002−360936号公報JP 2002-360936 A

3次元フィギアはコンピュータゲームをはじめ、様々なアプリケーションプログラムにリアル性を付加するのに役立つ。例えば、スケジュール管理アプリケーションに登録されているスケジュールを、例えば予定開始前の所定時間前に3次元フィギアが自動的に教えてくれれば、コンピュータが本物の秘書に近い役割を果たすことになる。   The three-dimensional figure is useful for adding realism to various application programs including computer games. For example, if the three-dimensional figure automatically teaches the schedule registered in the schedule management application, for example, a predetermined time before the start of the schedule, the computer will play a role close to a real secretary.

しかしながら、3次元フィギアの開発には、2次元画像のデータを製作する場合と比較し、多大な労力とコストを伴う。そのため、従来、3次元フィギアはゲームのようにリアル性が重視され、ユーザが相当な対価を支払う分野においてのみ、普及してきた。   However, the development of a three-dimensional figure involves a great deal of labor and cost compared to the case of producing two-dimensional image data. For this reason, the three-dimensional figure has been popular only in the field where the realism is important as in the game and the user pays a considerable price.

そのような事情に鑑み、本発明は、3次元フィギアの開発コストを低下させることで、3次元フィギアを様々なアプリケーションプログラムにおいて利用可能とすることを目的とする。また、本発明は、その望ましい態様において、3次元フィギアを用いた新たなコミュニケーション手段を提案する。   In view of such circumstances, an object of the present invention is to make it possible to use a three-dimensional figure in various application programs by reducing the development cost of the three-dimensional figure. Further, the present invention proposes a new communication means using a three-dimensional figure in the desirable mode.

本発明は以下に述べる仕組みを提案する。
まず、3次元フィギアを動作させるためのAPI(Application Program Interface)を準備する。3次元フィギア用のAPIを用いて開発されたアプリケーションプログラムは、所定の形式に従い生成された部位データ、動作指示データおよび音声データに従い、3次元フィギアを実現することができる。
The present invention proposes the mechanism described below.
First, an API (Application Program Interface) for operating a three-dimensional figure is prepared. An application program developed using an API for a three-dimensional figure can realize a three-dimensional figure according to part data, operation instruction data, and voice data generated according to a predetermined format.

ここで、部位データとは、3次元フィギアの身体を構成する部位の外観の各々を示すデータである。また、動作指示データとは、3次元フィギアの身体の動作を指示するデータである。また、音声データとは、3次元フィギアの発する音声の合成に用いられるデータである。   Here, the part data is data indicating each appearance of the part constituting the body of the three-dimensional figure. Further, the motion instruction data is data for instructing the body motion of the three-dimensional figure. The voice data is data used for synthesizing voice generated by the three-dimensional figure.

サーバ装置は、上記のAPIに従って製作された部位データ、動作指示データおよび音声データを配信可能に記憶する。すなわち、それらのデータの開発者は、自分の製作した部位データ、動作指示データもしくは音声データをサーバ装置にアップロードし、他の開発者の利用に供することができる。従って、開発者は、他の開発者により製作された部位データ、動作指示データもしくは音声データをダウンロードし、それらを用いて新たな部位データ、動作指示データもしくは音声データを製作したり、それらをアセンブルして3次元フィギアを製作したりすることができる。   The server device stores the part data, the operation instruction data, and the voice data manufactured according to the above-described API so as to be distributed. That is, the developer of these data can upload the part data, operation instruction data, or voice data that he / she has created to the server device and use it for other developers. Therefore, the developer downloads part data, operation instruction data or voice data produced by other developers, and uses them to produce new part data, action instruction data or voice data, or assemble them. To make a 3D figure.

サーバ装置から3次元フィギアのユーザの端末装置には、部位データ群および音声データ群がダウンロードされる。これらのデータにより、3次元フィギアの固定的なキャラクタ(外観および声色)が決定される。   The part data group and the voice data group are downloaded from the server device to the terminal device of the user of the three-dimensional figure. With these data, a fixed character (appearance and voice color) of the three-dimensional figure is determined.

また、サーバ装置からユーザの端末装置には、動作指示データ群がダウンロードされる。また、ユーザの端末装置は、例えばメーラなどのアプリケーションプログラムから、もしくはサーバ装置などの外部の装置から、発話内容データ群を取得する。発話内容データとは、3次元フィギアが発声する言葉の内容を示すデータである。これらのデータ、すなわち動作指示データ群および発話内容データ群により、3次元フィギアの動作や発話内容が決定される。   In addition, the operation instruction data group is downloaded from the server device to the user terminal device. In addition, the user terminal device acquires a speech content data group from an application program such as a mailer or from an external device such as a server device. The utterance content data is data indicating the content of words uttered by the three-dimensional figure. Based on these data, that is, the operation instruction data group and the utterance content data group, the operation and utterance content of the three-dimensional figure are determined.

ユーザの端末装置は、サーバ装置から受信等した3次元フィギアの部位データ群、音声データ群、動作指示データ群および発話内容データ群を用いて、上述のAPIを用いたアプリケーションプログラムに従った処理を行うことにより、例えば3次元フィギアが受信メールの内容を読み上げるメーラなどを実現することができる。   The user terminal device uses the three-dimensional figure part data group, voice data group, operation instruction data group, and utterance content data group received from the server device to perform processing according to the application program using the above-described API. By doing so, it is possible to realize, for example, a mailer in which the three-dimensional figure reads out the contents of the received mail.

上記の仕組みによれば、3次元フィギアを構成するコンポーネントのうち、既に誰かによって開発されているコンポーネントは再開発が不要であるため、3次元フィギアの開発コストが低下し、3次元フィギアの利用が促進される。   According to the above mechanism, among the components constituting the three-dimensional figure, the components already developed by someone do not need to be redeveloped, so the development cost of the three-dimensional figure is reduced and the use of the three-dimensional figure is reduced. Promoted.

また、上述した本発明にかかる仕組みに以下を追加してもよい。
すなわち、動作指示データと発話内容データとの組み合わせを示すアクションデータをサーバ装置において配信可能に記憶する。動作指示データと発話内容データとの組み合わせは、3次元キャラクタの発話を伴う動作の1単位を示す。開発者により作成されたアクションデータは開発者の端末装置からサーバ装置にアップロードされ、他の開発者の端末装置にダウンロードされて利用される。
Further, the following may be added to the mechanism according to the present invention described above.
That is, action data indicating a combination of operation instruction data and utterance content data is stored in a server device so that it can be distributed. The combination of the action instruction data and the utterance content data indicates one unit of the action accompanied by the utterance of the three-dimensional character. Action data created by a developer is uploaded from a developer's terminal device to a server device, downloaded to another developer's terminal device, and used.

また、上記のように開発者により開発されてアップロードされたアクションデータは、ユーザの端末装置にダウンロードされ、3次元フィギアの動きおよび発話の決定に利用される。   Further, the action data developed and uploaded by the developer as described above is downloaded to the user's terminal device and used for determining the movement and utterance of the three-dimensional figure.

上記の仕組みによれば、3次元フィギアの開発において、その動きおよび発話の組み合わせを決定する作業が分業により軽減される。   According to the above mechanism, in the development of the three-dimensional figure, the work of determining the combination of movement and utterance is reduced by division of labor.

また、上述した本発明にかかる仕組みに以下を追加してもよい。
すなわち、上記のように開発者によりアップロードされたアクションデータにより示される動作指示データと発話内容データとの組み合わせに基づき、サーバ装置は所定のアルゴリズムに従い、新たなアクションデータを自動生成する。例えば、ダウンロード頻度が高いアクションデータに含まれる動作指示データもしくは発話内容データを、それらに類似の動作指示データもしくは発話内容データと交換することにより、新たなアクションデータの自動生成が行われる。
Further, the following may be added to the mechanism according to the present invention described above.
That is, based on the combination of the operation instruction data and the utterance content data indicated by the action data uploaded by the developer as described above, the server device automatically generates new action data according to a predetermined algorithm. For example, new action data is automatically generated by exchanging operation instruction data or utterance content data included in action data with high download frequency with similar operation instruction data or utterance content data.

上記のようにサーバ装置により自動生成されたアクションデータは、開発者により開発されてアップロードされたアクションデータと同様に、ユーザの端末装置にダウンロードされ、3次元フィギアの動きおよび発話の決定に利用される。   The action data automatically generated by the server device as described above is downloaded to the user terminal device and used to determine the movement and utterance of the three-dimensional figure in the same manner as the action data developed and uploaded by the developer. The

上記の仕組みによれば、3次元フィギアの開発において、その動きおよび発話の組み合わせが自動生成されるため、それらを作成する作業が軽減される。   According to the above-described mechanism, in the development of a three-dimensional figure, a combination of movement and utterance is automatically generated, so that the work of creating them is reduced.

また、上述した本発明にかかる仕組みに以下を追加してもよい。
すなわち、複数のアクションデータのシーケンスを示すシナリオデータをサーバ装置において配信可能に記憶する。シナリオデータにより示されるアクションデータのシーケンスは、3次元キャラクタの一連の発話を伴う動作を示す。開発者により作成されたシナリオデータは開発者の端末装置からサーバ装置にアップロードされ、他の開発者の端末装置にダウンロードされて利用される。
Further, the following may be added to the mechanism according to the present invention described above.
That is, scenario data indicating a sequence of a plurality of action data is stored in a server device so as to be distributed. The sequence of action data indicated by the scenario data indicates an action involving a series of utterances of a three-dimensional character. The scenario data created by the developer is uploaded from the developer's terminal device to the server device, downloaded to the other developer's terminal device, and used.

また、上記のように開発者により開発されてアップロードされたシナリオデータは、ユーザの端末装置にダウンロードされ、3次元フィギアの動きおよび発話の決定に利用される。   The scenario data developed and uploaded by the developer as described above is downloaded to the user's terminal device and used for determining the movement and utterance of the three-dimensional figure.

上記の仕組みによれば、3次元フィギアの開発において、一連の発話を伴う動きを決定する作業が分業により軽減される。   According to the above-described mechanism, in the development of a three-dimensional figure, the work of determining a motion accompanied by a series of utterances is reduced by division of labor.

また、上述した本発明にかかる仕組みに以下を追加してもよい。
すなわち、上記のように開発者によりアップロードされたシナリオデータにより示されるアクションデータのシーケンスに基づき、サーバ装置は所定のアルゴリズムに従い、新たなシナリオデータを自動生成する。例えば、ダウンロード頻度が高いシナリオデータに含まれるアクションデータを、それらに類似のアクションデータと交換することにより、新たなシナリオデータの自動生成が行われる。
Further, the following may be added to the mechanism according to the present invention described above.
That is, based on the action data sequence indicated by the scenario data uploaded by the developer as described above, the server device automatically generates new scenario data according to a predetermined algorithm. For example, new scenario data is automatically generated by exchanging action data included in scenario data having a high download frequency with action data similar to them.

上記のようにサーバ装置により自動生成されたシナリオデータは、開発者により開発されてアップロードされたシナリオデータと同様に、ユーザの端末装置にダウンロードされ、3次元フィギアの動きおよび発話の決定に利用される。   The scenario data automatically generated by the server device as described above is downloaded to the user terminal device and used to determine the movement and utterance of the three-dimensional figure in the same manner as the scenario data developed and uploaded by the developer. The

上記の仕組みによれば、3次元フィギアの開発において、一連の発話を伴う動きが自動生成されるため、それらを作成する作業が軽減される。   According to the above-described mechanism, since the movement accompanied by a series of utterances is automatically generated in the development of the three-dimensional figure, the work of creating them is reduced.

また、上述した本発明にかかる仕組みに以下を追加してもよい。
すなわち、サーバ装置は、例えばSNS(Social Networking Service)を提供するサーバ装置などから、様々な人々の間で交換されたメッセージの内容を示す対話内容データを取得する。サーバ装置はそのように取得した対話内容データに基づき、所定の規則に従い、発話内容データを自動生成する。
Further, the following may be added to the mechanism according to the present invention described above.
That is, the server device acquires dialogue content data indicating the content of messages exchanged between various people from, for example, a server device that provides SNS (Social Networking Service). The server device automatically generates utterance content data in accordance with a predetermined rule based on the dialog content data thus acquired.

そのように自動生成される発話内容データには、望ましくは、その内容の発話がどのような状況下において発話される内容であるか等の属性を示す発話内容属性データが伴う。例えば、「元気だよ!」という内容の発話は、キャラクタの属性が健康状態がよい、という属性で、健康状態について訊ねられた時の回答として高い頻度で利用される、という情報が、発話内容属性データとして発話内容データとともに生成される。   The automatically generated utterance content data is preferably accompanied by utterance content attribute data indicating attributes such as under what circumstances the utterance of the content is uttered. For example, an utterance with the content “I'm fine!” Is an attribute that the character's attribute is in good health, and the information that the utterance content is frequently used as an answer when asked about the health status. It is generated along with the utterance content data as attribute data.

そのように自動生成された発話内容データはサーバ装置において配信可能に記憶され、開発者の端末装置にダウンロードされて開発に利用されたり、ユーザの端末装置にダウンロードされて3次元フィギアの発話内容の決定に利用されたりする。   The automatically generated utterance content data is stored in a server device so that it can be distributed, downloaded to the developer's terminal device and used for development, or downloaded to the user's terminal device and used for the utterance content of the 3D figure. It is used for decision.

上記の仕組みによれば、3次元フィギアの開発において、発話内容データを作成する作業が軽減される。   According to the above mechanism, the work of creating utterance content data is reduced in the development of a three-dimensional figure.

また、上述した本発明にかかる仕組みに以下を追加してもよい。
すなわち、特定の部位データ群により示される外観を備え、特定の音声データ群により示される声色で発声する3次元フィギアをキャラクタとするとき、ユーザの端末装置は、キャラクタの属性を示すキャラクタ属性データを取得する。キャラクタの属性とは、例えば、「女性」「格闘家」「現在、空腹である」「元気満々である」など、キャラクタの特性や状態を示す様々な要素である。
Further, the following may be added to the mechanism according to the present invention described above.
That is, when a character is a three-dimensional figure that has an appearance indicated by a specific part data group and utters in a voice color indicated by the specific voice data group, the user terminal device stores character attribute data indicating the character attribute. get. Character attributes are various elements indicating the character's characteristics and status, such as “female”, “fighter”, “currently hungry”, and “energetic”.

なお、キャラクタ属性データが示すキャラクタの属性には、「女性」「格闘家」のように、状況に応じて容易に変化することのない固定的なキャラクタの属性(特性)と、「現在、空腹である」「元気満々である」のように、状況に応じて容易に変化する属性(状態)がある。   The character attributes indicated by the character attribute data include fixed character attributes (characteristics) that do not easily change according to the situation, such as “female” and “fighter”, and “currently hungry. There are attributes (states) that change easily according to the situation, such as “I am” and “I am energetic”.

また、動作指示データには、その動作指示データが指示する動作の属性を示す動作属性データを伴う。動作の属性とは、例えば「嬉しい時によく行う動作」「相手をからかう時によく行う動作」など、動作が行われる状況を示す様々な要素である。   Further, the operation instruction data is accompanied by operation attribute data indicating the attribute of the operation indicated by the operation instruction data. The attribute of the action is various elements indicating the situation in which the action is performed, such as “an action often performed when happy” or “an action often performed when teasing the other party”.

また、発話内容データには、その発話内容データが示す発話の内容の属性を示す発話内容属性データが伴う。発話の内容の属性とは、上述したように、例えばその内容の発話が行われる状況を示す様々な要素である。   The utterance content data is accompanied by utterance content attribute data indicating the attribute of the utterance content indicated by the utterance content data. As described above, the attribute of the content of the utterance is various elements indicating a situation where the utterance of the content is performed, for example.

ユーザの端末装置は、複数の動作指示データの中から、それらの動作指示データに伴う動作属性データにより示される属性が、キャラクタ属性データにより示されるキャラクタの属性とマッチするものを選択する。同様に、ユーザの端末装置は、複数の発話内容データの中から、それらの発話内容データに伴う発話内容属性データにより示される属性が、キャラクタ属性データにより示されるキャラクタの属性とマッチするものを選択する。   The user terminal device selects, from among a plurality of motion instruction data, an attribute whose attribute indicated by the motion attribute data accompanying the motion instruction data matches the character attribute indicated by the character attribute data. Similarly, the user's terminal device selects, from among a plurality of utterance content data, an attribute in which the attribute indicated by the utterance content attribute data associated with the utterance content data matches the character attribute indicated by the character attribute data To do.

ユーザの端末装置は、上記のように選択した動作指示データおよび発話内容データを用いて3次元フィギアの動作および発話の内容を決定する。   The user terminal device determines the operation of the three-dimensional figure and the content of the utterance using the operation instruction data and the utterance content data selected as described above.

上記の仕組みによれば、キャラクタの現在の状態に応じた望ましい動作および発話が自動的に選択され行われるため、3次元フィギアのリアル性が高まる。   According to the above mechanism, a desired action and utterance corresponding to the current state of the character are automatically selected and performed, so that the realism of the three-dimensional figure is enhanced.

また、上述した本発明にかかる仕組みに以下を追加してもよい。
すなわち、ユーザの端末装置が、動作指示データにより指示される動作のバリエーションの中からキャラクタ属性データに応じた動作を選択し、3次元フィギアにその動作を行わせる。動作のバリエーションとは、例えば同じ動作であって速度が異なるものや、同じ動作の可動域が異なるものなどである。
Further, the following may be added to the mechanism according to the present invention described above.
That is, the user's terminal device selects an action corresponding to the character attribute data from the variations of the action specified by the action instruction data, and causes the three-dimensional figure to perform the action. Variations of motion include, for example, the same motion and different speeds, and different motion ranges of the same motion.

また、ユーザの端末装置が、発話内容データにより指示される内容を示す音声のバリエーションの中からキャラクタ属性データに応じた音声を選択し、3次元フィギアにその音声を発音させる。音声のバリエーションとは、同じ内容の発話であって速度が異なるもの、音程が異なるもの、イントネーションの大小が異なるものなどである。   In addition, the user terminal device selects a voice corresponding to the character attribute data from the voice variations indicating the contents designated by the utterance content data, and causes the three-dimensional figure to pronounce the voice. Voice variations include utterances with the same content and different speeds, different pitches, different intonations, and the like.

上記の仕組みによれば、キャラクタの現在の状態に応じた望ましい動作の態様および発話の態様が自動的に選択され行われるため、3次元フィギアのリアル性が高まる。   According to the above-described mechanism, the desirable mode of action and the mode of speech according to the current state of the character are automatically selected and performed, so that the realism of the three-dimensional figure is enhanced.

また、上述した本発明にかかる仕組みに以下を追加してもよい。
すなわち、ユーザの端末装置が、キャラクタにとっての環境の属性を示す環境属性データを取得し、環境属性データにより示される属性に基づきキャラクタ属性データ(状況に応じて変化する可変的な属性を示す部分)を自動生成する。環境の属性とは、例えばその時点における時刻や、キャラクタが継続使用されている時間、そのキャラクタに対し話しかけられたメッセージの内容、そのキャラクタが過去に行った動作や発話した内容、そのキャラクタが仮想世界において過去に行った行動など、キャラクタの現在の状態を左右する様々な要素である。
Further, the following may be added to the mechanism according to the present invention described above.
That is, the user terminal device acquires environment attribute data indicating the environment attribute for the character, and character attribute data (a portion indicating a variable attribute that changes depending on the situation) based on the attribute indicated by the environment attribute data. Is automatically generated. The environmental attributes include, for example, the time at which the character is used, the length of time that the character continues to be used, the content of messages spoken to the character, the actions that the character has performed or spoken in the past, and the character is virtual Various factors that influence the current state of the character, such as actions taken in the past in the world.

上記の仕組みによれば、キャラクタがユーザにより入力されたデータや過去に行った行動、時刻等々の様々な要因に応じて、自動的に現在のキャラクタの状態が変化し、それに応じて動作や発話、それらの態様が自動的に変化する。その結果、3次元フィギアのリアル性が高まる。   According to the above mechanism, the state of the current character automatically changes according to various factors such as data input by the user, actions taken in the past, time, and the like. These aspects change automatically. As a result, the realism of the three-dimensional figure is enhanced.

また、上述した本発明にかかる仕組みに以下を追加してもよい。
すなわち、ユーザの端末装置は、サーバ装置からキャラクタの環境属性データを受信して利用する。
Further, the following may be added to the mechanism according to the present invention described above.
That is, the user terminal device receives and uses the environment attribute data of the character from the server device.

サーバ装置からユーザの端末装置に送信される環境属性データは、例えば他のユーザが同じキャラクタを使用した際にその他のユーザに対しキャラクタが行った動作や発話などを示すデータである。従って、サーバ装置からユーザの端末装置に送信される環境属性データは、例えば他のユーザの端末装置からサーバ装置に送信された環境属性データである。   The environmental attribute data transmitted from the server device to the user's terminal device is data indicating, for example, actions or utterances performed by other characters when other users use the same character. Accordingly, the environment attribute data transmitted from the server device to the user terminal device is, for example, environment attribute data transmitted from another user terminal device to the server device.

ユーザの端末装置がサーバ装置から受信した環境属性データは、キャラクタ属性データに反映される。その結果、あるユーザの端末装置で動作するキャラクタの状態は、他のユーザの端末装置で動作する同じキャラクタの動作等に影響を受けることになる。   The environment attribute data received from the server device by the user terminal device is reflected in the character attribute data. As a result, the state of the character that operates on the terminal device of a certain user is affected by the operation of the same character that operates on the terminal device of another user.

上記の仕組みによれば、例えば同じキャラクタを複数のユーザ間で共有して利用する際に、他のユーザの使用に伴いキャラクタの状態が変化するため、キャラクタがより予測不可能な動作や発話をすることになる。その結果、3次元フィギアのリアル性が高まる。   According to the above mechanism, for example, when the same character is shared and used among a plurality of users, the character's state changes with the use of other users. Will do. As a result, the realism of the three-dimensional figure is enhanced.

また、上述した本発明にかかる仕組みに以下を追加してもよい。
すなわち、ユーザの端末装置は、サーバ装置からキャラクタのキャラクタ属性データを受信して利用する。
Further, the following may be added to the mechanism according to the present invention described above.
That is, the user terminal device receives and uses the character attribute data of the character from the server device.

サーバ装置からユーザの端末装置に送信されるキャラクタ属性データは、例えば他のユーザが同じキャラクタに対し行った設定等を反映したキャラクタ属性データである。従って、サーバ装置からユーザの端末装置に送信されるキャラクタ属性データは、例えば他のユーザの端末装置からサーバ装置に送信されたキャラクタ属性データである。   The character attribute data transmitted from the server device to the user terminal device is, for example, character attribute data reflecting settings made by other users for the same character. Therefore, the character attribute data transmitted from the server device to the user terminal device is, for example, character attribute data transmitted from another user terminal device to the server device.

上記の仕組みによれば、例えば同じキャラクタを複数のユーザが共有して利用する際に、あるマスターのユーザの使用に伴いそのキャラクタの現在の状態が決定され、他のユーザの使用がそのキャラクタの現在の状態に対し影響を与えない、といったキャラクタの設定が可能となる。従って、例えばあるユーザが自分の分身としてのキャラクタを他のユーザの端末装置内で動作させるような場合、その3次元フィギアのリアル性が高まる。   According to the above mechanism, for example, when a plurality of users share and use the same character, the current state of the character is determined with the use of a certain master user, and the use of other users is determined by the use of the character. Character settings such as not affecting the current state are possible. Therefore, for example, when a user operates a character as his / her own character in another user's terminal device, the realism of the three-dimensional figure is enhanced.

また、上述した本発明にかかる仕組みに以下を追加してもよい。
すなわち、サーバ装置は、第1のユーザと第2のユーザが同じキャラクタを共通して使用している状況下において、第1のユーザの端末装置から受信した環境属性データに基づき生成したキャラクタ属性データを第2のユーザの端末装置に送信する。第2のユーザの端末装置においては、サーバ装置から受信したキャラクタ属性データに従い、3次元フィギアの動作や発話、その態様が決定される。
Further, the following may be added to the mechanism according to the present invention described above.
That is, the server device uses the character attribute data generated based on the environment attribute data received from the terminal device of the first user in a situation where the first user and the second user commonly use the same character. Is transmitted to the terminal device of the second user. In the terminal device of the second user, the operation and utterance of the three-dimensional figure and its mode are determined according to the character attribute data received from the server device.

上記の仕組みによっても、同じキャラクタを複数のユーザが共有して利用する際に、他のユーザの使用状況がキャラクタの現在の状態に反映される。その結果、3次元フィギアのリアル性が高まる。   Even with the above mechanism, when a plurality of users share and use the same character, the usage status of other users is reflected in the current state of the character. As a result, the realism of the three-dimensional figure is enhanced.

なお、本発明は、上述した仕組みにおいて実行される方法、上述した仕組みを実現するために用いられるシステム、それらのシステムを構成するサーバ装置および端末装置、それらの装置をコンピュータにより実現させるためのプログラムを提案する。   In addition, this invention is the method performed in the mechanism mentioned above, the system used in order to implement | achieve the mechanism mentioned above, the server apparatus and terminal device which comprise those systems, and the program for implement | achieving those apparatuses with a computer Propose.

実施形態にかかる3次元フィギアプラットフォームの全体構成を模式的に示した図である。It is the figure which showed typically the whole structure of the three-dimensional figure platform concerning embodiment. 実施形態にかかる3次元フィギア管理サーバ装置の機能構成を示した図である。It is the figure which showed the function structure of the three-dimensional figure management server apparatus concerning embodiment. 実施形態にかかるエンドユーザ用端末装置の機能構成を示した図である。It is the figure which showed the function structure of the terminal device for end users concerning embodiment. 実施形態にかかる3次元フィギア管理サーバ装置に記憶されているデータベース群を模式的に示した図である。It is the figure which showed typically the database group memorize | stored in the three-dimensional figure management server apparatus concerning embodiment. 実施形態にかかる3次元フィギア管理サーバ装置に記憶されているデータベース群を模式的に示した図である。It is the figure which showed typically the database group memorize | stored in the three-dimensional figure management server apparatus concerning embodiment. 実施形態にかかる3次元フィギア管理サーバ装置に記憶されているデータベースを模式的に示した図である。It is the figure which showed typically the database memorize | stored in the three-dimensional figure management server apparatus concerning embodiment. 実施形態にかかる3次元フィギアプラットフォームを用いた3次元フィギアのキャラクタの利用シーンの一例を示した図である。It is the figure which showed an example of the utilization scene of the character of the three-dimensional figure using the three-dimensional figure platform concerning embodiment. 実施形態にかかる3次元フィギアプラットフォームを用いた3次元フィギアのキャラクタの利用シーンの一例を示した図である。It is the figure which showed an example of the utilization scene of the character of the three-dimensional figure using the three-dimensional figure platform concerning embodiment. 実施形態にかかる3次元フィギアプラットフォームを用いた3次元フィギアのキャラクタの利用シーンの一例を示した図である。It is the figure which showed an example of the utilization scene of the character of the three-dimensional figure using the three-dimensional figure platform concerning embodiment.

[実施形態]
以下、本発明の一実施形態にかかる3次元フィギアプラットフォーム1を説明する。図1は、3次元フィギアプラットフォーム1の全体構成を模式的に示した図である。
[Embodiment]
Hereinafter, a three-dimensional figure platform 1 according to an embodiment of the present invention will be described. FIG. 1 is a diagram schematically showing the overall configuration of the three-dimensional figure platform 1.

3次元フィギアプラットフォーム1は、3次元フィギアを構成する各種データを管理する3次元フィギア管理サーバ装置11と、3次元フィギアを構成する各種データを開発する開発者が使用する開発者用端末装置12と、3次元フィギアを利用するエンドユーザが使用するエンドユーザ用端末装置13と、3次元フィギア管理サーバ装置11が発話内容データの自動生成に必要なデータを収集するためにアクセスするメッセージサーバ装置14を含んでいる。   The three-dimensional figure platform 1 includes a three-dimensional figure management server device 11 that manages various data constituting the three-dimensional figure, and a developer terminal device 12 that is used by a developer who develops various data constituting the three-dimensional figure. An end user terminal device 13 used by an end user who uses a three-dimensional figure, and a message server device 14 which the three-dimensional figure management server device 11 accesses to collect data necessary for automatic generation of utterance content data. Contains.

なお、開発者用端末装置12の数は開発者の数に応じて任意に変化する。また、エンドユーザ用端末装置13の数はエンドユーザの数に応じて任意に変化する。また、メッセージサーバ装置14の数も不特定多数である。3次元フィギア管理サーバ装置11は1つでもよいが、例えばロードバランサーにより管理される複数のサーバ群などのように、互いに連携動作する複数の装置群により構成されてもよい。   The number of developer terminal devices 12 is arbitrarily changed according to the number of developers. Further, the number of end user terminal devices 13 is arbitrarily changed according to the number of end users. The number of message server devices 14 is also unspecified. Although the number of the three-dimensional figure management server apparatus 11 may be one, it may be configured by a plurality of apparatus groups operating in cooperation with each other, such as a plurality of server groups managed by a load balancer, for example.

開発者用端末装置12の各々、エンドユーザ用端末装置13の各々、メッセージサーバ装置14の各々は、インターネット9を介して、3次元フィギア管理サーバ装置11との間で各種データの送受信を行う。   Each of the developer terminal device 12, each of the end user terminal devices 13, and each of the message server devices 14 transmits and receives various data to and from the three-dimensional figure management server device 11 via the Internet 9.

3次元フィギア管理サーバ装置11は、一般的なサーバ用PC(Personal Computer)に、本実施形態にかかるアプリケーションプログラムに従った処理を実行させることにより、図2に示す機能構成部を備える装置として実現されたものである。なお、3次元フィギア管理サーバ装置11が、以下の機能構成部をハードウェア的に実現した、いわゆる専用機として構成されてもよい。   The three-dimensional figure management server device 11 is realized as a device including the functional components shown in FIG. 2 by causing a general server PC (Personal Computer) to execute processing according to the application program according to the present embodiment. It has been done. Note that the three-dimensional figure management server device 11 may be configured as a so-called dedicated machine that implements the following functional components in hardware.

すなわち、3次元フィギア管理サーバ装置11は以下の機能構成部を備える。
受信手段110:他の装置から各種データを受信する。
記憶手段111:各種データを記憶する。
送信手段112:他の装置に対し各種データを送信する。
アクションデータ生成手段113:アクションデータを自動生成する。
シナリオデータ生成手段114:シナリオデータを自動生成する。
対話内容データ取得手段115:メッセージサーバ装置14から受信手段110が受信した対話内容データ(ブログなどに書かれ公開されているメッセージのやりとりを示すテキストデータ)を取得する。
発話内容データ生成手段116:対話内容データ取得手段115により取得された対話内容データに基づき、AI機能により発話内容データを自動生成する。
キャラクタ属性データ生成手段117:受信手段110により受信される各3次元フィギアのキャラクタに関する環境属性データに基づき、そのキャラクタの属性を示すキャラクタ属性データ(状況に応じて変化する可変的な属性を示す部分)を自動生成(更新)する。
That is, the three-dimensional figure management server device 11 includes the following functional components.
Receiving means 110: Receives various data from other devices.
Storage means 111: Stores various data.
Transmission means 112: transmits various data to other devices.
Action data generation means 113: Automatically generates action data.
Scenario data generation means 114: Scenario data is automatically generated.
Dialog content data acquisition means 115: Acquires dialog content data (text data indicating message exchange written on a blog or the like) received by the reception means 110 from the message server device 14.
Utterance content data generation means 116: Based on the dialogue content data acquired by the dialogue content data acquisition means 115, the utterance content data is automatically generated by the AI function.
Character attribute data generating means 117: Character attribute data indicating the attribute of the character based on the environment attribute data relating to the character of each three-dimensional figure received by the receiving means 110 (part indicating a variable attribute that changes depending on the situation) ) Is automatically generated (updated).

開発者用端末装置12は、一般的なPCに、本実施形態にかかるアプリケーションプログラムに従った処理を実行させることにより実現されたものである。開発者用端末装置12の機能構成は、次に説明するエンドユーザ用端末装置13の機能構成のサブセット(3次元フィギアを利用するアプリケーションプログラムの実行に関する機能構成部を除くもの)である。そのため、その機能構成の説明を省略する。   The developer terminal device 12 is realized by causing a general PC to execute processing according to the application program according to the present embodiment. The functional configuration of the developer terminal device 12 is a subset of the functional configuration of the end user terminal device 13 described below (excluding the functional configuration unit related to the execution of an application program using a three-dimensional figure). Therefore, description of the functional configuration is omitted.

エンドユーザ用端末装置13は、3次元フィギアを利用するアプリケーションプログラムに従った処理を実行可能なデータ処理端末装置であれば、如何なる形態の端末装置であってもよい。すなわち、エンドユーザ用端末装置13は、例えばデスクトップPC、ノートブックPC、タブレット型端末装置、スマートフォン、携帯ゲーム機、Webブラウザ対応テレビ、据置型ゲーム機などである。   The end user terminal device 13 may be any type of terminal device as long as it is a data processing terminal device capable of executing processing according to an application program using a three-dimensional figure. That is, the end user terminal device 13 is, for example, a desktop PC, a notebook PC, a tablet terminal device, a smartphone, a portable game machine, a Web browser-compatible TV, a stationary game machine, or the like.

図3は、エンドユーザ用端末装置13の機能構成を示した図である。すなわち、エンドユーザ用端末装置13は以下の機能構成部を備える。
送信手段130:3次元フィギア管理サーバ装置11に対し各種データを送信する。
受信手段131:3次元フィギア管理サーバ装置11から各種データを受信する。
発話内容データ取得手段132:3次元フィギアの発話の内容を示す発話内容データを取得する。
表示手段133:3次元フィギアを表示する。
発音手段134:3次元フィギアの発する音声を発音する。
キャラクタ属性データ取得手段135:キャラクタの属性を示すキャラクタ属性データを取得する。
動作指示データ選択手段136:各々が3次元フィギアの動作を指示する多数の動作指示データの中から、状況に応じた動作を指示する動作指示データを選択する。
発話内容データ選択手段137:各々が3次元フィギアの発話の内容を示す多数の発話内容データの中から、状況に応じた発話内容を示す発話内容データを選択する。
環境属性データ取得手段138:3次元フィギアのキャラクタの属性に影響を与える様々な属性を示す環境属性データを取得する。
キャラクタ属性データ生成手段139:環境属性データ取得手段138により取得された環境属性データに基づき、3次元フィギアのキャラクタの属性を示すキャラクタ属性データ(状況に応じて変化する可変的な属性を示す部分)を生成(更新)する。
FIG. 3 is a diagram illustrating a functional configuration of the end user terminal device 13. That is, the end user terminal device 13 includes the following functional components.
Transmission means 130: transmits various data to the three-dimensional figure management server device 11.
Receiving means 131: Receives various data from the three-dimensional figure management server device 11.
Utterance content data acquisition unit 132: acquires utterance content data indicating the content of the utterance of the three-dimensional figure.
Display means 133: Displays a three-dimensional figure.
Sound generation means 134: sounds a sound generated by the three-dimensional figure.
Character attribute data acquisition means 135: Acquires character attribute data indicating the attributes of the character.
Operation instruction data selection means 136: Selects operation instruction data for instructing an operation according to the situation from a large number of operation instruction data each instructing the operation of the three-dimensional figure.
Utterance content data selection means 137: Selects utterance content data indicating the utterance content according to the situation from a large number of utterance content data each indicating the utterance content of the three-dimensional figure.
Environmental attribute data acquisition means 138: Acquires environmental attribute data indicating various attributes that affect the attributes of the three-dimensional figure character.
Character attribute data generation means 139: Character attribute data indicating the attributes of the three-dimensional figure character based on the environment attribute data acquired by the environment attribute data acquisition means 138 (part indicating variable attributes that change depending on the situation) Is generated (updated).

3次元フィギア管理サーバ装置11の記憶手段111には、3次元フィギアを構成する各種データ(以下、それらを総称して「コンポーネントデータ」と呼ぶ)を管理するデータベース群が記憶されている。3次元フィギアプラットフォーム1において利用されるコンポーネントデータは、例えば3次元フィギアプラットフォーム1の管理事業者により開発され、広く開発者に公開された3次元フィギア操作用のAPI群により利用可能なフォーマットに従ったデータである。   The storage unit 111 of the three-dimensional figure management server device 11 stores a database group for managing various data constituting the three-dimensional figure (hereinafter collectively referred to as “component data”). The component data used in the three-dimensional figure platform 1 is developed by, for example, a management company of the three-dimensional figure platform 1 and conforms to a format that can be used by the API group for three-dimensional figure operation widely disclosed to the developers. It is data.

図4Aおよび図4Bは、3次元フィギア管理サーバ装置11に記憶されているデータベース群を模式的に示した図である。   4A and 4B are diagrams schematically showing a database group stored in the three-dimensional figure management server device 11.

コンポーネントデータは以下に分類される。
部位データ:3次元フィギアの身体の部位(顔、手、胴など)の外観を規定するデータ。
身体データ:部位データの組み合わせを示すことにより、身体全体の外観を規定するデータ。
音声データ:3次元フィギアが発声する声の基本データ。音声合成エンジンにより言葉を意味する音声を合成するためのソースデータとしての波形データ群であり、音素ごとの波形データなどを含む。
キャラクタデータ:身体データと音声データの組み合わせを示すことにより、3次元フィギアの固定的な特性を規定するデータ。
アイテムデータ:3次元フィギアが装着したり手に持ったりする各種アイテムの外観を示すデータ。
Component data is classified as follows.
Part data: Data defining the appearance of the body part (face, hand, torso, etc.) of the three-dimensional figure.
Body data: Data that defines the appearance of the whole body by showing a combination of body data.
Voice data: Basic data of voice uttered by the 3D figure. It is a waveform data group as source data for synthesizing speech that means words by a speech synthesis engine, and includes waveform data for each phoneme.
Character data: Data that defines a fixed characteristic of a three-dimensional figure by indicating a combination of body data and voice data.
Item data: Data indicating the appearance of various items worn by the 3D figure or held in the hand.

動作指示データ:3次元フィギアの動作を指示するデータ。
発話内容データ:3次元フィギアの発する言葉の内容(発話内容)を示すテキストデータ。
アクションデータ:動作指示データと発話内容データの組み合わせを示すことにより、3次元フィギアの発話を伴う動作を規定するデータ。
シナリオデータ:複数のアクションデータのシーケンス(時系列的にならべたもの)を示すことにより、3次元フィギアの一連の動作を規定するデータ。
Operation instruction data: Data for instructing the operation of the three-dimensional figure.
Utterance content data: Text data indicating the content (utterance content) of words uttered by the three-dimensional figure.
Action data: Data that defines an action accompanied by a three-dimensional figure utterance by indicating a combination of action instruction data and utterance content data.
Scenario data: Data that defines a series of actions of a three-dimensional figure by indicating a sequence of action data (arranged in time series).

3次元フィギア管理サーバ装置11は、部位データを管理するための部位データベース群を記憶している。部位データベース群は、各部位のデータベースの集まりである。各部位とは、例えば、手、足、胴、顔、などである。なお、これらの部位の単位は設計事項であり、例えば手をさらに、手のひら、第1指、第2指、・・・などのように細分化するなどしてもよい。   The three-dimensional figure management server device 11 stores a part database group for managing part data. The site database group is a collection of databases of each site. Examples of each part include a hand, a foot, a torso, and a face. The unit of these parts is a design matter, and for example, the hand may be further subdivided into a palm, a first finger, a second finger,.

部位データベースは部位データ毎のデータレコードの集まりであり、各データレコードには以下のデータフィールドが含まれる。
部位ID:部位データを識別する部位IDを格納する。
名称:部位データの名称を格納する。
部位データ:部位データ本体(もしくはその格納場所を示すデータ)を格納する。
部位属性データ:部位データにより示される部位の属性(例えば、その部位が用いられるキャラクタ名や、「女性」「筋肉質」「ロボット」といった特性など)を示す部位属性データを格納する。
The part database is a collection of data records for each part data, and each data record includes the following data fields.
Part ID: A part ID for identifying part data is stored.
Name: Stores the name of the part data.
Part data: The part data body (or data indicating the storage location) is stored.
Site attribute data: Stores site attribute data indicating the attributes of the site indicated by the site data (for example, the name of the character in which the site is used, characteristics such as “female”, “muscle”, and “robot”).

また、3次元フィギア管理サーバ装置11は、身体データを管理するための身体データベースを記憶している。身体データベースは身体データ毎のデータレコ−ドの集まりであり、各データレコードには以下のデータフィールドが含まれる。
身体ID:身体データを識別する身体IDを格納する。
名称:身体データの名称を格納する。
部位ID(部位名):身体を構成する部位を識別する部位IDを、部位毎に格納する。例えば、「部位ID(手)」は、その身体の手の部分を構成する部位IDを格納する。
身体属性データ:身体データにより示される身体の属性(例えば、「女性」、「長身」といった特性など)を示す身体属性データを格納する。
The three-dimensional figure management server device 11 stores a body database for managing body data. The body database is a collection of data records for each body data, and each data record includes the following data fields.
Body ID: A body ID for identifying body data is stored.
Name: Stores the name of body data.
Part ID (part name): A part ID for identifying a part constituting the body is stored for each part. For example, “part ID (hand)” stores a part ID that constitutes a part of the hand of the body.
Physical attribute data: Stores physical attribute data indicating physical attributes (for example, characteristics such as “female” and “height”) indicated by the physical data.

また、3次元フィギア管理サーバ装置11は、音声データを管理するための音声データベースを記憶している。音声データベースは音声データ毎のデータレコ−ドの集まりであり、各データレコードには以下のデータフィールドが含まれる。
音声ID:音声データを識別する音声IDを格納する。
名称:音声データの名称を格納する。
音声データ:音声データ本体(もしくはその格納場所を示すデータ)を格納する。
音声属性データ:音声データにより示される声色の属性(例えば、「女性」、「優しい声」といった特性など)を示す音声属性データを格納する。
The three-dimensional figure management server device 11 stores a voice database for managing voice data. The voice database is a collection of data records for each voice data, and each data record includes the following data fields.
Voice ID: A voice ID for identifying voice data is stored.
Name: Stores the name of the audio data.
Audio data: The audio data body (or data indicating the storage location) is stored.
Voice attribute data: Stores voice attribute data indicating voice color attributes (for example, characteristics such as “female” and “gentle voice”) indicated by the voice data.

また、3次元フィギア管理サーバ装置11は、キャラクタデータを管理するためのキャラクタデータベースを記憶している。キャラクタデータベースはキャラクタデータ毎のデータレコ−ドの集まりであり、各データレコードには以下のデータフィールドが含まれる。
キャラクタID:キャラクタデータを識別するキャラクタIDを格納する。
名称:キャラクタデータの名称を格納する。
身体ID:キャラクタに用いられる身体データを識別する身体IDを格納する。
音声ID:キャラクタに用いられる音声データを識別する音声IDを格納する。
The three-dimensional figure management server device 11 stores a character database for managing character data. The character database is a collection of data records for each character data, and each data record includes the following data fields.
Character ID: A character ID for identifying character data is stored.
Name: Stores the name of the character data.
Body ID: A body ID for identifying body data used for the character is stored.
Voice ID: A voice ID for identifying voice data used for a character is stored.

また、3次元フィギア管理サーバ装置11は、アイテムデータを管理するためのアイテムデータベースを記憶している。アイテムデータベースはアイテムデータ毎のデータレコ−ドの集まりであり、各データレコードには以下のデータフィールドが含まれる。
アイテムID:アイテムデータを識別するアイテムIDを格納する。
名称:キャラクタデータの名称を格納する。
アイテムデータ:アイテムデータ本体(もしくはその格納場所を示すデータ)を格納する。
アイテム属性データ:アイテムデータにより示されるアイテムの属性(例えば、アイテムの種別、サイズ、重さ、機能など)を示すアイテム属性データを格納する。
The three-dimensional figure management server device 11 stores an item database for managing item data. The item database is a collection of data records for each item data, and each data record includes the following data fields.
Item ID: An item ID for identifying item data is stored.
Name: Stores the name of the character data.
Item data: Stores the item data body (or data indicating the storage location).
Item attribute data: Stores item attribute data indicating item attributes (for example, item type, size, weight, function, etc.) indicated by the item data.

また、3次元フィギア管理サーバ装置11は、動作指示データを管理するための動作指示データベースを記憶している。動作指示データベースは動作指示データ毎のデータレコ−ドの集まりであり、各データレコードには以下のデータフィールドが含まれる。
動作ID:動作指示データを識別する動作IDを格納する。
動作指示データ:動作指示データ本体(もしくはその格納場所を示すデータ)を格納する。
動作属性データ:動作指示データにより指示される動作の属性(例えば、「走る」、「笑う」、などの動作そのものの特性や、「悲しい時」、「嬉しい時」などの動作が行われる状況の特性など)を示す動作属性データを格納する。
The three-dimensional figure management server device 11 stores an operation instruction database for managing operation instruction data. The operation instruction database is a collection of data records for each operation instruction data, and each data record includes the following data fields.
Operation ID: An operation ID for identifying operation instruction data is stored.
Operation instruction data: Stores the operation instruction data body (or data indicating the storage location).
Action attribute data: The attributes of the action specified by the action instruction data (for example, the characteristics of the action itself such as “run”, “laugh”, and the situation where the action such as “sad” or “happy” is performed. Operation attribute data indicating characteristics etc. is stored.

また、3次元フィギア管理サーバ装置11は、発話内容データを管理するための発話内容データベースを記憶している。発話内容データベースは発話内容データ毎のデータレコ−ドの集まりであり、各データレコードには以下のデータフィールドが含まれる。
発話内容ID:発話内容データを識別する発話内容IDを格納する。
発話内容データ:発話内容データ本体(もしくはその格納場所を示すデータ)を格納する。
発話内容属性データ:発話内容データにより示される発話内容の属性(例えば、「悲しい時」、「嬉しい時」などの発話が行われる状況の特性や、「元気ですか?」と訊かれた時の回答に用いられる、といった先行する言葉など)を示す発話内容属性データを格納する。
The three-dimensional figure management server device 11 stores an utterance content database for managing utterance content data. The utterance content database is a collection of data records for each utterance content data, and each data record includes the following data fields.
Utterance content ID: An utterance content ID for identifying utterance content data is stored.
Utterance content data: Stores the utterance content data body (or data indicating the storage location).
Utterance content attribute data: Attributes of the utterance content indicated by the utterance content data (for example, characteristics of situations in which utterances such as “when sad” and “when happy” are performed, or when “why are you?” Utterance content attribute data indicating a preceding word or the like used for an answer) is stored.

発話内容データベースには、開発者により作成され、開発者用端末装置12から3次元フィギア管理サーバ装置11にアップロードされた発話内容データに加え、発話内容データ自動生成AIにより自動生成された発話内容データも格納されている。   In the utterance content database, in addition to the utterance content data created by the developer and uploaded from the developer terminal device 12 to the three-dimensional figure management server device 11, the utterance content data automatically generated by the utterance content data automatic generation AI Is also stored.

発話内容データ自動生成AIは、外部ソースであるメッセージサーバ装置14(例えば、SNSを管理するサーバ装置、ブログの配信に用いられているWebサーバ装置など)から複数の人間の間でやりとりされたメッセージを示す対話内容データをクロールしてくる。発話内容データ自動生成AIは、そのように取得した対話内容データにより示されるメッセージ内容を解析し、発話内容データおよびそれに伴う発話内容属性データを自動生成する。   The utterance content data automatic generation AI is a message exchanged between a plurality of persons from a message server device 14 (for example, a server device that manages SNS, a Web server device used for blog distribution) that is an external source. Crawls conversation content data that indicates The utterance content data automatic generation AI analyzes the message content indicated by the dialog content data thus acquired, and automatically generates utterance content data and accompanying utterance content attribute data.

発話内容データ自動生成AIの機能により、発話内容データベースに蓄積される発話内容データの数が豊富となり、開発者の労力を伴うことなく、3次元フィギアの発する言葉のバリエーションが増加される。   The function of the automatic utterance content data generation AI increases the number of utterance content data stored in the utterance content database, and increases the variation of words uttered by the three-dimensional figure without the effort of the developer.

また、3次元フィギア管理サーバ装置11は、アクションデータを管理するためのアクションデータベースを記憶している。アクションデータベースはアクションデータ毎のデータレコ−ドの集まりであり、各データレコードには以下のデータフィールドが含まれる。
アクションID:アクションデータを識別するアクションIDを格納する。
動作ID:アクションを構成する動作を識別する動作IDを格納する。
発話内容ID:アクションを構成する発話内容を識別する発話内容IDを格納する。
アクション属性データ:アクションデータにより示されるアクションの属性(例えば、「悲しい時」、「嬉しい時」などのアクションが行われる状況の特性など)を示すアクション属性データを格納する。
The three-dimensional figure management server device 11 stores an action database for managing action data. The action database is a collection of data records for each action data, and each data record includes the following data fields.
Action ID: An action ID for identifying action data is stored.
Operation ID: An operation ID for identifying an operation constituting the action is stored.
Utterance content ID: The utterance content ID for identifying the utterance content constituting the action is stored.
Action attribute data: Stores action attribute data indicating the attribute of the action indicated by the action data (for example, the characteristic of the situation in which the action such as “when sad” or “happy” is performed).

アクションデータベースには、開発者により作成され、開発者用端末装置12から3次元フィギア管理サーバ装置11にアップロードされたアクションデータに加え、アクションデータ自動生成AIにより自動生成されたアクションデータも格納されている。   In the action database, in addition to action data created by the developer and uploaded from the developer terminal device 12 to the three-dimensional figure management server device 11, action data automatically generated by the action data automatic generation AI is also stored. Yes.

アクションデータ自動生成AIは、開発者により作成された多数のアクションデータをアクションデータベースから読み出し、それらを解析して、新たなアクションデータを自動生成する。アクションデータ自動生成AIがアクションデータを自動生成する方法は様々なものが考えられる。   The action data automatic generation AI reads a large number of action data created by the developer from the action database, analyzes them, and automatically generates new action data. There are various methods by which the action data automatic generation AI automatically generates action data.

その一例を挙げれば、アクションデータ自動生成AIは、図4には図示されていないアクションデータの利用ログデータを参照し、ある状況下において高い頻度で使用されるアクションを構成する動作と類似の動作でそれを置き換えたものや、高い頻度で使用されるアクションを構成する発話と類似の発話でそれを置き換えたものを示すアクションデータを生成する。   For example, the action data automatic generation AI refers to action data usage log data not shown in FIG. 4, and is similar to an action that constitutes an action that is frequently used under certain circumstances. Action data is generated that indicates what has been replaced with the above, or that is replaced with an utterance similar to an utterance that constitutes an action that is frequently used.

アクションデータ自動生成AIの機能により、アクションデータベースに蓄積されるアクションデータの数が豊富となり、開発者の労力を伴うことなく、3次元フィギアの発話付き動作のバリエーションが増加される。   The function of the action data automatic generation AI increases the number of action data stored in the action database, and the variation of the operation with utterance of the three-dimensional figure is increased without the effort of the developer.

また、3次元フィギア管理サーバ装置11は、シナリオデータを管理するためのシナリオデータベースを記憶している。シナリオデータベースはシナリオデータ毎のデータレコ−ドの集まりであり、各データレコードには以下のデータフィールドが含まれる。
シナリオID:シナリオデータを識別するシナリオIDを格納する。
アクションID(シーケンス番号):シナリオを構成するアクションを識別するアクションIDをシーケンス順に格納する。例えば、アクションID(1)には、第1番目に実行されるアクションを示すアクションIDが格納される。
シナリオ属性データ:シナリオデータにより示される一連のアクションの属性(例えば、「悲しい時」、「嬉しい時」などの一連のアクションが行われる状況の特性など)を示すシナリオ属性データを格納する。
The three-dimensional figure management server device 11 stores a scenario database for managing scenario data. The scenario database is a collection of data records for each scenario data, and each data record includes the following data fields.
Scenario ID: A scenario ID for identifying scenario data is stored.
Action ID (sequence number): Action IDs for identifying actions constituting a scenario are stored in sequence order. For example, action ID (1) stores an action ID indicating the action to be executed first.
Scenario attribute data: Stores scenario attribute data indicating attributes of a series of actions indicated by the scenario data (for example, characteristics of a situation where a series of actions such as “when sad” and “happy” are performed).

シナリオデータベースには、開発者により作成され、開発者用端末装置12から3次元フィギア管理サーバ装置11にアップロードされたシナリオデータに加え、シナリオデータ自動生成AIにより自動生成されたシナリオデータも格納されている。   In the scenario database, in addition to the scenario data created by the developer and uploaded from the developer terminal device 12 to the three-dimensional figure management server device 11, scenario data automatically generated by the scenario data automatic generation AI is also stored. Yes.

シナリオデータ自動生成AIは、開発者により作成された多数のシナリオデータをシナリオデータベースから読み出し、それらを解析して、新たなシナリオデータを自動生成する。シナリオデータ自動生成AIがシナリオデータを自動生成する方法は様々なものが考えられる。   The scenario data automatic generation AI reads a large number of scenario data created by the developer from the scenario database, analyzes them, and automatically generates new scenario data. There are various methods for automatically generating scenario data by the scenario data automatic generation AI.

その一例を挙げれば、シナリオデータ自動生成AIは、図4には図示されていないシナリオデータの利用ログデータを参照し、ある状況下において高い頻度で使用されるシナリオを特定し、それらに含まれるアクションを類似のものに置き換えたり、複数のシナリオの各々から取り出した一部分をつなぎ合わせたりして、新たなシナリオデータを生成する。また、シナリオデータ自動生成AIは、図4には図示されていないアクションデータの利用ログデータを参照し、ある状況下において高い頻度で使用される一連のアクションデータを特定し、それらの一連のアクションデータを示すシナリオデータを生成する。   For example, the scenario data automatic generation AI refers to scenario data usage log data not shown in FIG. 4 to identify and include scenarios that are frequently used under certain circumstances. A new scenario data is generated by replacing an action with a similar one, or by connecting parts extracted from each of a plurality of scenarios. Further, the scenario data automatic generation AI refers to action data usage log data not shown in FIG. 4, identifies a series of action data frequently used in a certain situation, and sets the series of actions. Generate scenario data indicating the data.

シナリオデータ自動生成AIの機能により、シナリオデータベースに蓄積されるシナリオデータの数が豊富となり、開発者の労力を伴うことなく、3次元フィギアの一連の発話付き動作のバリエーションが増加される。   The function of the scenario data automatic generation AI increases the number of scenario data stored in the scenario database, and increases the variation of a series of actions with utterances of the three-dimensional figure without the effort of the developer.

上記のように、各データベースに格納されているコンポーネントデータは、開発者により3次元フィギア管理サーバ装置11から開発者用端末装置12にダウンロードされ、新たなコンポーネントデータの作成に利用される。開発者はそのように作成したコンポーネントデータを開発者用端末装置12から3次元フィギア管理サーバ装置11にアップロードすることで、そのコンポーネントデータを他の開発者に利用に供することができる。その結果、開発者は既存のコンポーネントデータをそのまま利用したり、一部変更して新たなコンポーネントデータを作成したりできるため、開発の労力が大幅に軽減され、結果として3次元フィギアの開発コストの削減がもたらされる。   As described above, the component data stored in each database is downloaded from the three-dimensional figure management server device 11 to the developer terminal device 12 by the developer and used to create new component data. The developer uploads the component data thus created from the developer terminal device 12 to the three-dimensional figure management server device 11 so that the component data can be used for other developers. As a result, developers can use existing component data as it is or create new component data by changing a part of it, which greatly reduces the development effort, resulting in a reduction in the development cost of 3D Fig. Reduction is brought about.

また、各データベースに格納されているコンポーネントデータはエンドユーザ用端末装置13にダウンロードされ、エンドユーザが3次元フィギア用のAPIを用いたアプリケーションプログラムを利用の際に3次元フィギアの生成に使用される。   The component data stored in each database is downloaded to the end user terminal device 13 and used for generating a three-dimensional figure when the end user uses an application program using an API for the three-dimensional figure. .

3次元フィギア管理サーバ装置11からエンドユーザ用端末装置13に配信されるコンポーネントデータは、そのエンドユーザにのみ利用されるキャラクタとすることもできるが、他のエンドユーザとの間で共用されるキャラクタとすることもできる。そのようなキャラクタの共用を可能とするため、3次元フィギア管理サーバ装置11の記憶手段111は、個々のキャラクタを管理するためのキャラクタ管理データベースを記憶している。   The component data distributed from the three-dimensional figure management server device 11 to the end user terminal device 13 can be a character used only by the end user, but is a character shared with other end users. It can also be. In order to enable such character sharing, the storage unit 111 of the three-dimensional figure management server device 11 stores a character management database for managing individual characters.

図5は、キャラクタ管理データベースのデータ構成を模式的に示した図である。キャラクタ管理データベースは、個別キャラクタ毎のデータレコードの集まりである。ここで「個別キャラクタ」とは、上述したキャラクタデータベースで用いられているキャラクタIDにより識別されるキャラクタの雛形から生成されたインスタンスとしてのキャラクタを意味する。   FIG. 5 is a diagram schematically showing the data structure of the character management database. The character management database is a collection of data records for each individual character. Here, “individual character” means a character as an instance generated from a character template identified by the character ID used in the character database described above.

例えば、キャラクタID####で識別される「ロボットX」というキャラクタは、ユーザAが自分のエンドユーザ用端末装置13にダウンロードして使用することができると同時に、ユーザAとは無関係なユーザPが自分のエンドユーザ用端末装置13にダウンロードして使用することもできる。この場合、ユーザAが使用する「ロボットX」と、ユーザPが使用する「ロボットX」は同じ種類のキャラクタであるが、異なるキャラクタであり、個別のキャラクタ属性を持つ。これらのキャラクタの各々が個別キャラクタである。なお、以下の説明において、文脈から個別キャラクタであることが分かる場合、個別キャラクタを単に「キャラクタ」と呼ぶ。   For example, the character “robot X” identified by the character ID #### can be downloaded by the user A to his / her end user terminal device 13 and used at the same time as a user unrelated to the user A. P can also be downloaded to his / her end user terminal device 13 for use. In this case, the “robot X” used by the user A and the “robot X” used by the user P are the same type of character, but are different characters and have individual character attributes. Each of these characters is an individual character. In the following description, when it is understood from the context that the character is an individual character, the individual character is simply referred to as a “character”.

キャラクタ管理データベースの各データレコードには以下のデータフィールドが含まれる。
個別キャラクタID:個別キャラクタを識別する個別キャラクタIDを格納する。
名称:個別キャラクタの名称を格納する。
キャラクタID:個別キャラクタに用いられる雛形のキャラクタを識別するキャラクタIDを格納する。
共用タイプ:個別キャラクタの共用タイプを示すデータを格納する。
ユーザID:個別キャラクタを使用しているエンドユーザを識別するユーザIDを格納する。
環境属性データ:個別キャラクタの属性に影響を与える各種データである環境属性データを格納する。
キャラクタ属性データ:個別キャラクタの属性(例えば「元気いっぱい」「眠い」などの現在のキャラクタの状態など)を示すキャラクタ属性データを格納する。
Each data record of the character management database includes the following data fields.
Individual character ID: An individual character ID for identifying an individual character is stored.
Name: Stores the name of the individual character.
Character ID: A character ID for identifying a template character used for an individual character is stored.
Shared type: Stores data indicating the shared type of individual characters.
User ID: A user ID for identifying an end user using an individual character is stored.
Environment attribute data: Stores environment attribute data, which is various data affecting the attributes of individual characters.
Character attribute data: Character attribute data indicating the attributes of individual characters (for example, the current character status such as “energetic” and “sleepy”) is stored.

上述の「共用タイプ」とは、具体的には以下のいずれかである。
非共用:1人のエンドユーザのみに使用される個別キャラクタであることを示す。
参照共用:複数人のエンドユーザにより同時に使用されるが、その個別キャラクタのキャラクタ属性データは、指定されたマスターとなるエンドユーザ以外の使用の影響を受けない個別キャラクタであることを示す。
反映共用:複数人のエンドユーザにより同時に使用され、その個別キャラクタのキャラクタ属性データは、それら複数人のエンドユーザ全ての使用の影響を受ける個別キャラクタであることを示す。
The above-mentioned “shared type” is specifically one of the following.
Non-shared: Indicates an individual character used only by one end user.
Shared reference: Used simultaneously by a plurality of end users, but the character attribute data of the individual character indicates that the character is an individual character that is not affected by the use other than the designated master end user.
Reflective sharing: The character attribute data of the individual character that is used simultaneously by a plurality of end users indicates that the character is an individual character affected by the use of all of the plurality of end users.

共用タイプが「非共用」である場合、「ユーザID」欄にはユーザIDが1つのみ格納される。共用タイプが「参照共用」および「反映共用」である場合、「ユーザID」欄にはユーザIDが複数格納される。また、共用タイプが「参照共用」である場合、マスターのエンドユーザのユーザIDには、例えば「(M)」のようにマスターであることを示すマークが付される。なお、マスターは1人でも複数人でもよい。   When the sharing type is “non-shared”, only one user ID is stored in the “user ID” column. When the sharing type is “reference sharing” and “reflection sharing”, a plurality of user IDs are stored in the “user ID” column. When the sharing type is “reference sharing”, the user ID of the master end user is marked with a mark indicating that it is a master, for example, “(M)”. Note that one or more masters may be used.

エンドユーザが使用するエンドユーザ用端末装置13の各々には、図5に示したキャラクタ管理データベースと同様のデータ構成のキャラクタ管理データベースが記憶されている。   A character management database having the same data structure as the character management database shown in FIG. 5 is stored in each end user terminal device 13 used by the end user.

エンドユーザ用端末装置13は所定のトリガに従い、3次元フィギア管理サーバ装置11にアクセスして、ローカルのキャラクタ管理データベースと3次元フィギア管理サーバ装置11のキャラクタ管理データベースとの同期処理を行う。   The end user terminal device 13 accesses the three-dimensional figure management server device 11 according to a predetermined trigger, and performs synchronization processing between the local character management database and the character management database of the three-dimensional figure management server device 11.

上記のキャラクタ管理データベースの同期処理により、まず、各キャラクタに関してエンドユーザ用端末装置13において更新された環境属性データがエンドユーザ用端末装置13から3次元フィギア管理サーバ装置11にアップロードされる。3次元フィギア管理サーバ装置11は様々なエンドユーザ用端末装置13からアップロードされてくるそれらの環境属性データをキャラクタ管理データベースに格納する。3次元フィギア管理サーバ装置11は、キャラクタ属性データ更新AIにより、キャラクタ管理データベースに蓄積された環境属性データに基づきキャラクタ属性データを更新する。   Through the above-described synchronization processing of the character management database, first, the environmental attribute data updated in the end user terminal device 13 for each character is uploaded from the end user terminal device 13 to the three-dimensional figure management server device 11. The three-dimensional figure management server device 11 stores the environment attribute data uploaded from various end user terminal devices 13 in the character management database. The three-dimensional figure management server device 11 updates the character attribute data based on the environment attribute data accumulated in the character management database by the character attribute data update AI.

環境属性データには、例えば、キャラクタが使用された時間、そのキャラクタに対しエンドユーザが投げかけた言葉、そのキャラクタが行った動作や発話の内容、エンドユーザがそのキャラクタの属性を変更するために明示的に入力したデータ(例えば、「焼き肉を食べた」、「朝6時に起きた」など)など、キャラクタの属性に影響を与えるあらゆるデータが含まれる。また、エンドユーザの使用とは無関係に与えられる環境属性データもある。例えば、現在時刻や現在の天気や気温、株価などの情報がその例である。   The environmental attribute data includes, for example, the time that the character was used, the words that the end user gave to the character, the actions and utterances performed by the character, and the end user to change the character's attributes. Any data that affects the character's attributes, such as automatically input data (for example, “I ate yakiniku”, “I woke up at 6 am”, etc.). There is also environmental attribute data given independently of the end user's use. For example, information such as the current time, current weather, temperature, and stock price is an example.

キャラクタ属性データ更新AIは、上記のような環境属性データに基づき、例えば、「疲労度:90」「満腹度:30」などのように、キャラクタの現在の状況を示すキャラクタ属性データを更新する。   The character attribute data update AI updates the character attribute data indicating the current state of the character, such as “Fatigue level: 90” and “Fullness level: 30”, based on the environmental attribute data as described above.

また、キャラクタ属性データには、例えば「Nさんに会ったら、〜というMさんからのメッセージを伝えなければならない」といった特定のアクションを促すものもある。このようなキャラクタ属性データは、エンドユーザであるMさん、もしくはエンドユーザが使用しているキャラクタのMさんが、このキャラクタに対し「今度Nさんに会ったら、〜と言っておいてね」というメッセージを発したような場合に、キャラクタ属性データ更新AIにより生成される。   In addition, the character attribute data may prompt a specific action, for example, “If you meet Mr. N, you must convey a message from Mr. M”. Such character attribute data indicates that M, who is the end user, or M, the character used by the end user, said to him, “If you meet N, this time, say ~” When a message is issued, it is generated by the character attribute data update AI.

より詳しくは、「今度Nさんに会ったら、〜と言っておいてね」というメッセージの受領が環境属性データとして記録され、その環境属性データに基づき、「Nさんに会ったら、〜というMさんからのメッセージを伝えなければならない」というキャラクタ属性データが生成される。   More specifically, the receipt of the message “If you see Mr. N next time, say ~” is recorded as environmental attribute data, and based on the environmental attribute data, “M Character attribute data is generated.

上記のように、3次元フィギア管理サーバ装置11において更新されたキャラクタ属性データは、キャラクタ管理データベースの同期処理において、3次元フィギア管理サーバ装置11からエンドユーザ用端末装置13に送信され、エンドユーザ用端末装置13のキャラクタ管理データベースに反映される。その結果、共用タイプが参照共用もしくは反映共用のキャラクタのキャラクタ属性データが複数のエンドユーザ間で共有されることになる。   As described above, the character attribute data updated in the three-dimensional figure management server device 11 is transmitted from the three-dimensional figure management server device 11 to the end user terminal device 13 in the synchronization process of the character management database, and is used for the end user. This is reflected in the character management database of the terminal device 13. As a result, the character attribute data of the character whose sharing type is reference sharing or reflection sharing is shared among a plurality of end users.

エンドユーザ用端末装置13において、3次元フィギアが使用される際のエンドユーザ用端末装置13の動作は以下のとおりである。まず、エンドユーザ用端末装置13は、3次元フィギアを使用するアプリケーションプログラム(3次元フィギア用のAPIを使用)に従った処理を実行する。エンドユーザのアプリケーションプログラムの使用に伴い、エンドユーザ用端末装置13の表示部にはキャラクタの外観が3次元で表示され、キャラクタの動きに合わせて、様々な発話が行われる。   The operation of the end user terminal device 13 when the three-dimensional figure is used in the end user terminal device 13 is as follows. First, the end user terminal device 13 executes a process according to an application program that uses a three-dimensional figure (using an API for a three-dimensional figure). Along with the use of the end user application program, the appearance of the character is displayed in three dimensions on the display unit of the end user terminal device 13, and various utterances are made in accordance with the movement of the character.

その際、エンドユーザ用端末装置13は、予め3次元フィギア管理サーバ装置11からダウンロードしてある多数の動作指示データ、発話内容データ、アクションデータおよびシナリオデータの中から、キャラクタ属性データに基づき、その状況に応じた動作および発話内容を指示するデータを順次選択する。   At that time, the end user terminal device 13 is based on the character attribute data from among a large number of operation instruction data, utterance content data, action data and scenario data downloaded in advance from the three-dimensional figure management server device 11. The data instructing the operation and the utterance content according to the situation are sequentially selected.

例えば、キャラクタ属性データが「嬉しい度:90」という属性を示す場合、アクション属性データが「嬉しい」を示すアクション(例えば、「うわーいっ!」と言いながら小躍りする、というアクション)が高い確率で選択される、という具合である。   For example, when the character attribute data indicates an attribute of “joyfulness: 90”, the action attribute data indicates an action indicating “happy” (for example, an action of making a small jump while saying “Wow!”) With a high probability. It is selected.

エンドユーザ用端末装置13は、上記のように動作および発話内容を選択すると、それらの動作と発話をどのような態様で実行するかを、キャラクタ属性データに基づき決定する。具体的には、例えば、キャラクタ属性データが「疲労度:90」という属性を示す場合、動作や発話の速度を落とし、動作の可動域を小さくし、発話の抑揚(イントネーション)を小さくする。   When the end user terminal device 13 selects the motion and utterance content as described above, the end user terminal device 13 determines in what manner the motion and utterance are to be executed based on the character attribute data. Specifically, for example, when the character attribute data indicates an attribute of “fatigue level: 90”, the speed of motion and speech is reduced, the range of motion is reduced, and the inflection (intonation) of speech is reduced.

エンドユーザ用端末装置13は、上記のように決定した態様で、選択した動作と発話をキャラクタに実行させる処理を行う。すなわち、キャラクタの各部位を動作指示データに従い動かすようなアニメーション画像を生成して表示すると同時に、音声データを用いて発話内容データで示される発話内容を示す音声を合成して発音する。その結果、キャラクタが動き、言葉をしゃべる。   The end user terminal device 13 performs a process of causing the character to execute the selected action and utterance in the manner determined as described above. That is, an animation image that moves each part of the character according to the operation instruction data is generated and displayed, and at the same time, the voice indicating the utterance content indicated by the utterance content data is synthesized and pronounced using the voice data. As a result, the character moves and speaks words.

上記のようにキャラクタが実行した動作や発話のログは、エンドユーザ用端末装置13のキャラクタ管理データベースに環境属性データとして記録される。また、エンドユーザがアプリケーションプログラムを使用中に入力した様々なデータ(キャラクタに話しかけたメッセージの内容など)も、環境属性データとして記録される。   A log of actions and utterances performed by the character as described above is recorded as environment attribute data in the character management database of the end user terminal device 13. Various data (such as the content of a message spoken to the character) input by the end user while using the application program is also recorded as environment attribute data.

エンドユーザ用端末装置13がアプリケーションプログラムを実行する際、3次元フィギア管理サーバ装置11が備えるキャラクタ属性データ更新AIと同様のキャラクタ属性データ更新AIがエンドユーザ用端末装置13においても動作する。   When the end user terminal device 13 executes the application program, a character attribute data update AI similar to the character attribute data update AI included in the three-dimensional figure management server device 11 also operates in the end user terminal device 13.

エンドユーザ用端末装置13のキャラクタ属性データ更新AIは、ローカルにおいて順次、キャラクタ管理データベースに記録されていく環境属性データに基づき、キャラクタ属性データを更新する。   The character attribute data update AI of the end user terminal device 13 updates the character attribute data on the basis of the environmental attribute data recorded in the character management database in sequence locally.

上述したような3次元フィギアプラットフォーム1を利用することにより、3次元フィギアのキャラクタはローカルおよびネットワーク上の仮想空間内において様々な役割を果たすことができるようになる。以下にそれらの例を示す。   By using the three-dimensional figure platform 1 as described above, a three-dimensional figure character can play various roles in a virtual space on a local network. Examples are shown below.

図6は、ユーザAのエンドユーザ用端末装置13内の仮想空間内において、ユーザAにとって2人称(対話の相手)としての役割を果たすように設定された3次元フィギアのキャラクタMが、その日の天気や予定などをユーザAに知らせている、というシーンを模式的に示した図である。   FIG. 6 shows that in the virtual space in the end user terminal device 13 of the user A, the character M of the three-dimensional figure that is set to play the role of the second person (partner of conversation) for the user A It is the figure which showed typically the scene of notifying the user A about a weather, a schedule, etc.

上記のようなシーンは、スケジュール管理アプリケーションや天気予報アプリケーションに3次元フィギアのAPIと3次元フィギアの操作エンジンを組み込むことにより実現される。もしくは、3次元フィギアのAPIと3次元フィギアの操作エンジンを組み込んだ汎用アプリケーションをエンドユーザ用端末装置13で実行させ、その汎用アプリケーションがスケジュール管理アプリケーションや天気予報情報を配信するWebサイトなどから必要なデータを取得し、3次元フィギアにそれらを通知させることによっても実現される。   The above scene is realized by incorporating a three-dimensional figure API and a three-dimensional figure operation engine into a schedule management application or a weather forecast application. Alternatively, a general-purpose application incorporating a 3D-figure API and a 3D-figure operation engine is executed by the end-user terminal device 13, and the general-purpose application is required from a Web site that distributes a schedule management application or weather forecast information. It is also realized by acquiring data and notifying them to a three-dimensional figure.

図7は、ユーザAの1人称(ユーザAの分身)としての役割を果たすように設定されたキャラクタAが、ユーザBのメーラにおいて、ユーザAからユーザBに送信された電子メールの内容を読み上げている、というシーンを模式的に示したものである。   FIG. 7 shows that the character A set to play the role of the first person of the user A (user A's alternation) reads the content of the email transmitted from the user A to the user B on the user B mailer. This is a schematic view of the scene.

ユーザBのエンドユーザ用端末装置13において、3次元フィギアに対応したメーラは、ユーザAからの電子メールを受信すると、ユーザAの1人称キャラクタ(キャラクタA)のデータをローカルで検索し、もしローカルになければ3次元フィギア管理サーバ装置11からダウンロードする。また、いずれの場合も、キャラクタAの最新のキャラクタ属性データを3次元フィギア管理サーバ装置11からダウンロードする。その後、エンドユーザ用端末装置13はキャラクタAにユーザAからの電子メールの内容を読み上げさせる。   In the terminal device 13 for the user B of the user B, when receiving the email from the user A, the mailer corresponding to the three-dimensional figure searches the data of the first person character (character A) of the user A locally. If not, download from the three-dimensional figure management server device 11. In either case, the latest character attribute data of the character A is downloaded from the three-dimensional figure management server device 11. Thereafter, the end user terminal device 13 causes the character A to read the content of the e-mail from the user A.

上記のようなシーンにおいては、ユーザBは、その時の本物のユーザAの状態を反映した口調で読み上げられる電子メールを、その時の本物のユーザAの状態を反映した身振りを見ながら聞くことができる。従って、例えばユーザAが元気な場合、元気いっぱいの口調と身振りで電子メールの読み上げが行われ、ユーザAが疲れている場合、疲れた口調と身振りで電子メールの読み上げが行われる、といった具合である。   In the above scene, the user B can listen to the e-mail read out in a tone reflecting the state of the real user A at that time while observing the gesture reflecting the state of the real user A at that time. . Thus, for example, when the user A is fine, the e-mail is read out with a healthy tone and gesture, and when the user A is tired, the e-mail is read out with a tired tone and gesture. is there.

図8は、ユーザAが、メッセージングアプリケーションにより、キャラクタを介してユーザBに伝言を行う、というシーンを模式的に示したものである。   FIG. 8 schematically shows a scene in which the user A sends a message to the user B via the character by the messaging application.

このシーンにおいては、まず、ユーザAがローカルの仮想空間内において、自分の1人称の役割を設定したキャラクタAから2人称の役割を設定したキャラクタMに対し、キャラクタNへの伝言を頼んでいる。なお、キャラクタNは、ユーザBによって2人称の役割を設定されたキャラクタである。   In this scene, first, the user A asks the character M who has set the role of the first person from the character A who has set the role of the first person to the character N in the local virtual space. . The character N is a character for which the role of the second person is set by the user B.

ユーザAの分身であるキャラクタAから伝言の依頼を受けたキャラクタMは、ユーザBのローカルの仮想空間内に登場し、その仮想空間内にいるキャラクタNに、キャラクタAからユーザBへのメッセージを伝える。キャラクタNは、ユーザBの仮想空間にユーザBの分身であるキャラクタBが現れると、キャラクタBに対しキャラクタMから伝えられたメッセージを伝えようとする。ユーザBはキャラクタBを操作してキャラクタNと対話をし、それによりユーザAからのメッセージを受け取ることができる。   The character M, which has received a message request from the character A who is a substitute for the user A, appears in the local virtual space of the user B, and a message from the character A to the user B is sent to the character N in the virtual space. Tell. When the character B, which is the user B's alternation, appears in the virtual space of the user B, the character N tries to transmit the message transmitted from the character M to the character B. User B operates character B to interact with character N, thereby receiving a message from user A.

上記のように、3次元フィギアプラットフォーム1によれば、様々なシーンにおいて3次元フィギアのキャラクタを使用することができ、またその役割も様々に設定できる。   As described above, according to the three-dimensional figure platform 1, a three-dimensional figure character can be used in various scenes, and the role can be set in various ways.

その際、1人称キャラクタとして用いれば、仮想空間内でそのキャラクタが自分の分身として活躍する。また、2人称キャラクタとして用いれば、仮想空間内でそのキャラクタが自分の対話の相手として活躍する。さらに、図8に例示したシーンのように、あるユーザの2人称キャラクタを他のユーザの仮想空間内に登場させることもできる。その場合、もはやそのキャラクタはいずれのユーザのコントロール下にもなく、第三者的に振る舞うようになる。   At that time, if used as a first person character, the character plays an active role in the virtual space. When used as a second person character, the character plays an active role in the conversation in the virtual space. Furthermore, as in the scene illustrated in FIG. 8, a second-person character of a certain user can appear in the virtual space of another user. In that case, the character is no longer under the control of any user and behaves as a third party.

それを可能とするためには、多くのコンポーネントデータの蓄積が必要であるが、3次元フィギアプラットフォーム1はコンポーネントデータの蓄積を、一方では開発者の分業による低コスト化により実現し、他方ではそれらの開発者により提供された多大なデータに基づきAI機能によりデータの自動生成を行うことにより実現している。   In order to make it possible, it is necessary to accumulate a lot of component data, but the 3D figure platform 1 realizes the accumulation of the component data on the one hand by the cost reduction by the division of labor of the developer, and on the other hand it This is realized by automatically generating data by the AI function based on a large amount of data provided by the developer.

以上述べたように、3次元フィギアプラットフォーム1によれば、3次元フィギアが様々なアプリケーションプログラムにおいて利用可能となるとともに、3次元フィギアを用いた新たなコミュニケーション手段が提供される。   As described above, according to the three-dimensional figure platform 1, the three-dimensional figure can be used in various application programs, and a new communication means using the three-dimensional figure is provided.

[変形例]
上述した実施形態は、本発明の技術的思想の範囲内で様々に変形することができる。以下にそれらの変形の例を示す。
[Modification]
The above-described embodiments can be variously modified within the scope of the technical idea of the present invention. Examples of these modifications are shown below.

上述した3次元フィギアプラットフォーム1においては、発話内容データは、例えばメーラなどから与えられるテキストデータや、3次元フィギア管理サーバ装置11においてメッセージサーバ装置14からクロールされ、発話内容データ自動生成AIにより生成されたか、もしくは開発者により作成され3次元フィギア管理サーバ装置11にアップロードされたものが使用されるものとした。   In the 3D figure platform 1 described above, the utterance content data is crawled from the message server device 14 in the 3D figure management server device 11 by text data given from, for example, a mailer or the like, and generated by the utterance content data automatic generation AI. Or those created by the developer and uploaded to the three-dimensional figure management server device 11 are used.

エンドユーザ用端末装置13が発話内容データを取得する方法は上記に限られず、例えば言語AI機能を用いて、エンドユーザ用端末装置13があるメッセージを受け取った場合、そのメッセージの内容を解析し、そのメッセージに対する適当な応答内容を特定することにより、キャラクタが発話すべき内容、すなわち発話内容データが取得される構成が採用されてもよい。   The method of acquiring the utterance content data by the end user terminal device 13 is not limited to the above. For example, when the end user terminal device 13 receives a message using the language AI function, the content of the message is analyzed, A configuration may be employed in which the content to be uttered by the character, that is, the utterance content data is acquired by specifying an appropriate response content for the message.

また、上述した3次元フィギアプラットフォーム1に、キャラクタの成長や環境に応じたキャラクタデータの変更機能を付加してもよい。例えば、子犬のキャラクタは時間の経過に伴い成長し、外観が変化していく方がリアルである。   Further, the above-described three-dimensional figure platform 1 may be added with a character data changing function in accordance with character growth and the environment. For example, it is more realistic that a puppy character grows with time and changes its appearance.

そのため、例えば3次元フィギア管理サーバ装置11は、環境属性データに格納されているキャラクタの使用時間の累計や、キャラクタの使用開始日時からの経過時間などに基づき、子犬から老犬までのシリーズとして準備されている一連のキャラクタデータ群の中から、その時に適したキャラクタデータを選択し、キャラクタ管理データベースのキャラクタIDを更新する。その結果、エンドユーザ用端末装置13において登場するキャラクタが徐々に成長していくことになる。   Therefore, for example, the three-dimensional figure management server device 11 prepares as a series from the puppy to the old dog based on the accumulated time of use of the character stored in the environmental attribute data, the elapsed time from the use start date and time of the character, etc. From the set of character data groups, character data suitable at that time is selected, and the character ID in the character management database is updated. As a result, characters appearing on the end user terminal device 13 gradually grow.

同様に、例えば過食気味のキャラクタの体型を徐々に肥満体にしていく、といった変化を付けることもできる。   Similarly, for example, a change can be made such that the body shape of an overeating character gradually becomes obese.

また、上述した3次元フィギアプラットフォーム1に対し、エンドユーザ用端末装置13が3次元フィギア管理サーバ装置11から所定のトリガに従い、必要なコンポーネントデータをダウンロードする仕組みを付加してもよい。   Further, a mechanism in which the end user terminal device 13 downloads necessary component data from the three-dimensional figure management server device 11 according to a predetermined trigger may be added to the above-described three-dimensional figure platform 1.

3次元フィギア管理サーバ装置11には膨大なコンポーネントデータが蓄積されることになるが、エンドユーザ用端末装置13の各々が使用するコンポーネントデータはその中のごく一部である。エンドユーザ用端末装置13の記憶容量は限られており、また3次元フィギア管理サーバ装置11とエンドユーザ用端末装置13との間のデータ通信量も少ない方が望ましい。   A vast amount of component data is stored in the three-dimensional figure management server device 11, but the component data used by each of the end user terminal devices 13 is only a part of the component data. The storage capacity of the end user terminal device 13 is limited, and it is desirable that the amount of data communication between the three-dimensional figure management server device 11 and the end user terminal device 13 is small.

そこで、コンポーネントデータのうち、個々のエンドユーザ用端末装置13において必要なもののみが3次元フィギア管理サーバ装置11からエンドユーザ用端末装置13にダウンロードされることが望ましい。   Therefore, it is desirable that only the component data necessary for each end user terminal device 13 is downloaded from the three-dimensional figure management server device 11 to the end user terminal device 13.

コンポーネントデータのうち、部位データおよび身体データ、音声データ、アイテムデータに関しては、エンドユーザが利用するキャラクタに関するもののみが3次元フィギア管理サーバ装置11からエンドユーザ用端末装置13にダウンロードされればよい。   Of the component data, regarding the part data, body data, voice data, and item data, only the data related to the character used by the end user may be downloaded from the three-dimensional figure management server device 11 to the end user terminal device 13.

問題は、動作指示データ、発話内容データ、アクションデータおよびシナリオデータである。これらのデータは、アプリケーションプログラムの使用中にリアルタイムに選択され使用されるため、予め選択候補としてある程度多数のデータを3次元フィギア管理サーバ装置11からエンドユーザ用端末装置13にダウンロードしておく必要がある。   The problems are operation instruction data, utterance content data, action data, and scenario data. Since these data are selected and used in real time during the use of the application program, it is necessary to download a certain amount of data from the three-dimensional figure management server device 11 to the end user terminal device 13 in advance as selection candidates. is there.

そこで、現在のキャラクタのキャラクタ属性データや環境属性データ(その時の時刻等)に基づき、3次元フィギア管理サーバ装置11は記憶手段111に蓄積している膨大な動作指示データ、発話内容データ、アクションデータおよびシナリオデータの中から、そのキャラクタの現在の属性に応じたものを抽出したサブセットを作る。そして、3次元フィギア管理サーバ装置11はそのサブセットをエンドユーザ用端末装置13に送信する。   Therefore, based on the character attribute data and environment attribute data (time at that time) of the current character, the three-dimensional figure management server device 11 stores a large amount of motion instruction data, utterance content data, action data stored in the storage means 111. A subset is extracted from the scenario data according to the current attribute of the character. Then, the three-dimensional figure management server device 11 transmits the subset to the end user terminal device 13.

3次元フィギア管理サーバ装置11は、所定のトリガに従い上記の処理を行うことにより、望ましい頻度で各エンドユーザ用端末装置13内に記憶されている動作指示データ、発話内容データ、アクションデータおよびシナリオデータの選択候補を入れ替える。その結果、エンドユーザ用端末装置13は限られた記憶容量を活用しながら、その時々に適したアクションを選択することができる。   The three-dimensional figure management server device 11 performs the above-described processing in accordance with a predetermined trigger, whereby operation instruction data, utterance content data, action data, and scenario data stored in each end user terminal device 13 at a desired frequency. Swap selection candidates. As a result, the end-user terminal device 13 can select an action suitable for each occasion while utilizing the limited storage capacity.

また、上述した3次元フィギアプラットフォーム1においては、共用(参照共用または反映共用)されるキャラクタに関して、複数のエンドユーザの各々の使用に伴い更新された環境属性データが同期処理時に各エンドユーザ用端末装置13から3次元フィギア管理サーバ装置11にアップロードされ、3次元フィギア管理サーバ装置11のキャラクタ属性データ更新AIがそれらの環境属性データに基づきキャラクタ属性データの更新を行い、更新後のキャラクタ属性データが3次元フィギア管理サーバ装置11から各エンドユーザ用端末装置13にダウンロードされる構成が採用されている。   Further, in the above-described three-dimensional figure platform 1, regarding the characters to be shared (reference sharing or reflection sharing), the environment attribute data updated with the use of each of the plurality of end users is the terminal for each end user during the synchronization processing. The character attribute data update AI of the three-dimensional figure management server apparatus 11 is uploaded from the apparatus 13 to the three-dimensional figure management server apparatus 11, and the character attribute data is updated based on the environmental attribute data. A configuration that is downloaded from the three-dimensional figure management server device 11 to each end user terminal device 13 is adopted.

これに代えて、同期処理時に、各エンドユーザ用端末装置13において環境属性データに基づきキャラクタ属性データ更新AIにより更新されたキャラクタ属性データが3次元フィギア管理サーバ装置11にアップロードされ、必要に応じてそれらの統合処理が3次元フィギア管理サーバ装置11において行われた後、3次元フィギア管理サーバ装置11から各エンドユーザ用端末装置13にダウンロードされる構成が採用されてもよい。   Instead, at the time of synchronization processing, the character attribute data updated by the character attribute data update AI based on the environment attribute data in each end user terminal device 13 is uploaded to the three-dimensional figure management server device 11, and as necessary. After such integration processing is performed in the three-dimensional figure management server device 11, a configuration may be adopted in which the three-dimensional figure management server device 11 is downloaded to each end user terminal device 13.

特に、共用タイプが参照共用であるキャラクタの場合、マスターのエンドユーザのエンドユーザ用端末装置13において更新されたキャラクタ属性データが、3次元フィギア管理サーバ装置11を介して他のエンドユーザのエンドユーザ用端末装置13に配信される構成が採用されると、3次元フィギア管理サーバ装置11の負荷が軽減され望ましい。   In particular, in the case of a character whose sharing type is reference sharing, the character attribute data updated in the end user terminal device 13 of the master end user is transmitted to the end users of other end users via the three-dimensional figure management server device 11. When the configuration distributed to the terminal device 13 is employed, it is desirable that the load on the three-dimensional figure management server device 11 is reduced.

1…3次元フィギアプラットフォーム、9…インターネット、11…3次元フィギア管理サーバ装置、12…開発者用端末装置、13…エンドユーザ用端末装置、14…メッセージサーバ装置、110…受信手段、111…記憶手段、112…送信手段、113…アクションデータ生成手段、114…シナリオデータ生成手段、115…対話内容データ取得手段、116…発話内容データ生成手段、117…キャラクタ属性データ生成手段、130…送信手段、131…受信手段、132…発話内容データ取得手段、133…表示手段、134…発音手段、135…キャラクタ属性データ取得手段、136…動作指示データ選択手段、137…発話内容データ選択手段、138…環境属性データ取得手段、139…キャラクタ属性データ生成手段 DESCRIPTION OF SYMBOLS 1 ... 3D figure platform, 9 ... Internet, 11 ... 3D figure management server apparatus, 12 ... Terminal apparatus for developers, 13 ... Terminal apparatus for end users, 14 ... Message server apparatus, 110 ... Receiving means, 111 ... Memory | storage Means 112 ... Transmission means 113 ... Action data generation means 114 ... Scenario data generation means 115 ... Dialog content data acquisition means 116 ... Utterance content data generation means 117 ... Character attribute data generation means 130 ... Transmission means, 131 ... Receiving means, 132 ... Speech content data acquisition means, 133 ... Display means, 134 ... Sound generation means, 135 ... Character attribute data acquisition means, 136 ... Action instruction data selection means, 137 ... Speech content data selection means, 138 ... Environment Attribute data acquisition means, 139 ... character attribute data generation Stage

Claims (32)

任意の端末装置からサーバ装置に対し、3次元フィギアの身体を構成するいずれかの部位の外観を示す部位データであって、所定の命令群に従った処理において利用される部位データが送信されるステップと、
前記サーバ装置が任意の端末装置から受信した部位データを記憶するステップと、
前記サーバ装置に対する任意の端末装置からの要求に応じて、前記サーバ装置から要求元の端末装置に対し、要求された部位データが送信されるステップと、
任意の端末装置から前記サーバ装置に対し、3次元フィギアの身体の動作を指示する動作指示データであって、前記所定の命令群に従った処理において利用される動作指示データが送信されるステップと、
前記サーバ装置が任意の端末装置から受信した動作指示データを記憶するステップと、
前記サーバ装置に対する任意の端末装置からの要求に応じて、前記サーバ装置から要求元の端末装置に対し、要求された動作指示データが送信されるステップと、
任意の端末装置から前記サーバ装置に対し、3次元フィギアの発する音声の合成に用いられる音声データであって、前記所定の命令群に従った処理において利用される音声データが送信されるステップと、
前記サーバ装置が任意の端末装置から受信した音声データを記憶するステップと、
前記サーバ装置に対する任意の端末装置からの要求に応じて、前記サーバ装置から要求元の端末装置に対し、要求された音声データが送信されるステップと、
一の端末装置が、前記サーバ装置に対する要求に応じて前記サーバ装置から送信されてくる部位データ、動作指示データおよび音声データを受信するステップと、
前記一の端末装置が、3次元フィギアの発話の内容を示す発話内容データを取得するステップと、
前記一の端末装置が、前記所定の命令群に従い、前記受信した動作指示データにより示される動作を行う前記受信した部位データにより示される身体の外観を示す画像を表示するとともに、前記受信した音声データにより示される音声を合成して前記取得した発話内容データにより示される発話の内容を示す音声を発音するステップと
を備える方法。
Part data indicating the appearance of any part constituting the body of the three-dimensional figure is transmitted from an arbitrary terminal device to the server device, and part data used in processing according to a predetermined command group is transmitted. Steps,
Storing the part data received by the server device from any terminal device;
In response to a request from an arbitrary terminal device for the server device, the requested part data is transmitted from the server device to the requesting terminal device;
The operation instruction data for instructing the movement of the body of the three-dimensional figure from an arbitrary terminal device to the server device, wherein the operation instruction data used in the processing according to the predetermined command group is transmitted; ,
Storing operation instruction data received from any terminal device by the server device;
In response to a request from any terminal device to the server device, the requested operation instruction data is transmitted from the server device to the requesting terminal device;
Audio data used for synthesizing audio generated by a three-dimensional figure from an arbitrary terminal device to the server device, and audio data used in processing according to the predetermined command group;
Storing voice data received by the server device from an arbitrary terminal device;
In response to a request from any terminal device to the server device, the requested voice data is transmitted from the server device to the requesting terminal device;
The one terminal device receives the part data, the operation instruction data and the voice data transmitted from the server device in response to the request to the server device;
The one terminal device acquires utterance content data indicating the utterance content of the three-dimensional figure; and
The one terminal device performs an operation indicated by the received operation instruction data in accordance with the predetermined command group, and displays an image showing an appearance of the body indicated by the received part data, and the received audio data A step of synthesizing the voice indicated by, and generating a voice indicating the content of the utterance indicated by the acquired utterance content data.
任意の端末装置から前記サーバ装置に対し、動作指示データと発話内容データとの組み合わせを示すアクションデータが送信されるステップと、
前記サーバ装置が任意の端末装置から受信したアクションデータを記憶するステップと、
前記サーバ装置に対する任意の端末装置からの要求に応じて、前記サーバ装置から要求元の端末装置に対し、要求されたアクションデータが送信されるステップと、
前記一の端末装置が、前記サーバ装置に対する要求に応じて前記サーバ装置から送信されてくるアクションデータを受信するステップと
を備え、
前記一の端末装置は、前記所定の命令群に従った画像の表示において、前記受信したアクションデータに示される動作指示データにより示される動作を行う身体の外観を示す画像を表示し、
前記一の端末装置は、前記所定の命令群に従った音声の発音において、前記受信したアクションデータに示される発話内容データにより示される発話の内容を示す音声を発音する
請求項1に記載の方法。
Action data indicating a combination of operation instruction data and utterance content data is transmitted from any terminal device to the server device;
Storing the action data received by the server device from any terminal device;
In response to a request from any terminal device to the server device, the requested action data is transmitted from the server device to the requesting terminal device;
The one terminal device receiving action data transmitted from the server device in response to a request to the server device, and
The one terminal device displays an image indicating an appearance of a body performing an operation indicated by the operation instruction data indicated in the received action data in displaying the image according to the predetermined command group.
2. The method according to claim 1, wherein the one terminal device generates a voice indicating the content of the utterance indicated by the utterance content data indicated in the received action data in the pronunciation of the voice according to the predetermined command group. .
前記サーバ装置が、前記記憶されている複数のアクションデータに基づき、所定の規則に従い、前記サーバ装置に記憶されている複数の動作指示データから選択された動作指示データと前記サーバ装置に記憶されている複数の発話内容データから選択された発話内容データの組み合わせを新たなアクションデータとして生成するステップと、
前記サーバ装置が、前記生成した新たなアクションデータを記憶するステップと
を備える請求項2に記載の方法。
The server device stores the operation instruction data selected from the plurality of operation instruction data stored in the server device and the server device according to a predetermined rule based on the plurality of stored action data. Generating a combination of utterance content data selected from a plurality of utterance content data being as new action data;
The method according to claim 2, wherein the server device comprises the step of storing the generated new action data.
任意の端末装置から前記サーバ装置に対し、2以上のアクションデータのシーケンスを示すシナリオデータが送信されるステップと、
前記サーバ装置が任意の端末装置から受信したシナリオデータを記憶するステップと、
前記サーバ装置に対する任意の端末装置からの要求に応じて、前記サーバ装置から要求元の端末装置に対し、要求されたシナリオデータが送信されるステップと、
前記一の端末装置が、前記サーバ装置に対する要求に応じて前記サーバ装置から送信されてくるシナリオデータを受信するステップと
を備え、
前記一の端末装置は、前記所定の命令群に従った画像の表示において、前記受信したシナリオデータに示される動作指示データにより示される動作を行う身体の外観を示す画像を表示し、
前記一の端末装置は、前記所定の命令群に従った音声の発音において、前記受信したシナリオデータに示される発話内容データにより示される発話の内容を示す音声を発音する
請求項2または3に記載の方法。
A step of transmitting scenario data indicating a sequence of two or more action data from an arbitrary terminal device to the server device;
Storing scenario data received from any terminal device by the server device;
In response to a request from any terminal device to the server device, the requested scenario data is transmitted from the server device to the requesting terminal device;
The one terminal device receiving scenario data transmitted from the server device in response to a request to the server device, and
The one terminal device displays an image showing the appearance of the body performing the operation indicated by the operation instruction data indicated in the received scenario data in displaying the image according to the predetermined command group,
The said one terminal device produces | generates the audio | voice which shows the content of the utterance shown by the utterance content data shown by the said received scenario data in the pronunciation of the sound according to the said predetermined command group. the method of.
前記サーバ装置が、前記記憶されている複数のシナリオデータに基づき、所定の規則に従い、前記サーバ装置に記憶されている複数のアクションデータから選択された複数のアクションデータのシーケンスを示す新たなシナリオデータを生成するステップと、
前記サーバ装置が、前記生成した新たなシナリオデータを記憶するステップと
を備える請求項4に記載の方法。
New scenario data indicating a sequence of a plurality of action data selected from a plurality of action data stored in the server device according to a predetermined rule based on the plurality of stored scenario data. A step of generating
The method according to claim 4, wherein the server device comprises the step of storing the generated new scenario data.
前記サーバ装置が、複数の人間の間でやりとりされた対話の内容を示す対話内容データを取得するステップと、
前記サーバ装置が、前記取得した対話内容データに基づき、所定の規則に従い、発話内容データを生成するステップと、
前記サーバ装置が、前記生成した発話内容データを記憶するステップと、
前記サーバ装置に対する任意の端末装置からの要求に応じて、前記サーバ装置から要求元の端末装置に対し、要求された発話内容データが送信されるステップと、
前記一の端末装置が、前記サーバ装置に対する要求に応じて前記サーバ装置から送信されてくる発話内容データを受信するステップと
を備え、
前記一の端末装置は、前記所定の命令群に従った音声の発音において、前記受信した発話内容データにより示される発話の内容を示す音声を発音する
請求項1乃至5のいずれかに記載の方法。
The server device acquires dialogue content data indicating the content of dialogue exchanged between a plurality of humans;
The server device generates utterance content data according to a predetermined rule based on the acquired conversation content data;
The server device storing the generated utterance content data;
In response to a request from an arbitrary terminal device to the server device, the requested utterance content data is transmitted from the server device to the requesting terminal device;
The one terminal device receiving utterance content data transmitted from the server device in response to a request to the server device, and
The method according to any one of claims 1 to 5, wherein the one terminal device generates a sound indicating the content of an utterance indicated by the received utterance content data in sound generation according to the predetermined command group. .
特定の部位データ群により示される外観を備え、特定の音声データ群により示される声色で発声する3次元フィギアをキャラクタとするとき、
前記一の端末装置が、キャラクタの属性を示すキャラクタ属性データを取得するステップを備え、
動作指示データは、当該動作指示データが指示する動作の属性を示す動作属性データを伴い、
発話内容データは、当該発話内容データが示す発話の内容の属性を示す発話内容属性データを伴い、
前記一の端末装置は、前記サーバ装置から複数の動作指示データを受信し、
前記一の端末装置は、複数の発話内容データを取得し、
前記一の端末装置が、前記複数の動作指示データの中から、前記キャラクタ属性データと前記複数の動作指示データの各々に伴う動作属性データとに基づき、一の動作指示データを選択するステップと、
前記一の端末装置が、前記複数の発話内容データの中から、前記キャラクタ属性データと前記複数の発話内容データの各々に伴う発話内容属性データとに基づき、一の発話内容データを選択するステップと
を備え、
前記一の端末装置は、前記画像の表示において、前記選択した一の動作指示データが指示する動作を行う身体の外観を示す画像を表示し、
前記一の端末装置は、前記音声の発音において、前記選択した一の発話内容データが示す発話の内容を示す音声を発音する
請求項1乃至6のいずれかに記載の方法。
When the character is a three-dimensional figure that has the appearance indicated by the specific part data group and utters the voice color indicated by the specific voice data group,
The one terminal device comprises a step of acquiring character attribute data indicating an attribute of a character,
The operation instruction data is accompanied by operation attribute data indicating the attribute of the operation indicated by the operation instruction data.
The utterance content data includes utterance content attribute data indicating the attribute of the utterance content indicated by the utterance content data.
The one terminal device receives a plurality of operation instruction data from the server device,
The one terminal device acquires a plurality of utterance content data,
The one terminal device selecting one action instruction data from the plurality of action instruction data based on the character attribute data and action attribute data associated with each of the plurality of action instruction data;
The one terminal device selects one utterance content data from the plurality of utterance content data based on the character attribute data and the utterance content attribute data associated with each of the plurality of utterance content data; With
The one terminal device displays an image showing an appearance of a body performing an operation instructed by the selected one operation instruction data in displaying the image,
The method according to any one of claims 1 to 6, wherein the one terminal device generates a voice indicating the content of the utterance indicated by the selected one utterance content data in the pronunciation of the voice.
特定の部位データ群により示される外観を備え、特定の音声データ群により示される声色で発声する3次元フィギアをキャラクタとするとき、
前記一の端末装置が、キャラクタの属性を示すキャラクタ属性データを取得するステップを備え、
前記一の端末装置は、前記画像の表示において、動作指示データにより指示される動作のバリエーションの中から前記キャラクタ属性データに基づき特定される動作を行う身体の外観を示す画像を表示し、
前記一の端末装置は、前記音声の合成において、発話内容データにより示される発話の内容を示す音声のバリエーションの中から前記キャラクタ属性データに基づき特定される音声を合成する
請求項1乃至7のいずれかに記載の方法。
When the character is a three-dimensional figure that has the appearance indicated by the specific part data group and utters the voice color indicated by the specific voice data group,
The one terminal device comprises a step of acquiring character attribute data indicating an attribute of a character,
In the display of the image, the one terminal device displays an image showing an appearance of a body that performs an action specified based on the character attribute data from among variations of the action specified by the action instruction data.
The said one terminal device synthesize | combines the audio | voice specified based on the said character attribute data from the variation of the audio | voice which shows the content of the speech shown by speech content data in the said voice synthesis | combination. The method of crab.
前記一の端末装置が、前記キャラクタにとっての環境の属性を示す環境属性データを取得するステップと、
前記一の端末装置が、前記環境属性データに基づき、前記キャラクタ属性データを生成するステップと
を備える請求項7または8に記載の方法。
The one terminal device obtaining environmental attribute data indicating an environmental attribute for the character;
The method according to claim 7, further comprising: the one terminal device generating the character attribute data based on the environment attribute data.
前記サーバ装置から前記一の端末装置に対し、前記キャラクタの環境属性データが送信されるステップを備え、
前記一の端末装置は、前記キャラクタの環境属性データを前記サーバ装置から受信することで取得する
請求項9に記載の方法。
The environment attribute data of the character is transmitted from the server device to the one terminal device,
The method according to claim 9, wherein the one terminal device acquires environment attribute data of the character from the server device.
前記一の端末装置とは異なる他の端末装置から前記サーバ装置に対し、前記キャラクタの環境属性データが送信されるステップを備え、
前記サーバ装置は、当該他の端末装置から受信した前記キャラクタの環境属性データを、前記一の端末装置に送信する
請求項10に記載の方法。
The environment attribute data of the character is transmitted from the other terminal device different from the one terminal device to the server device,
The method according to claim 10, wherein the server device transmits the environment attribute data of the character received from the other terminal device to the one terminal device.
前記サーバ装置から前記一の端末装置に対し、前記キャラクタのキャラクタ属性データが送信されるステップを備え、
前記一の端末装置は、前記キャラクタのキャラクタ属性データを前記サーバ装置から受信することで取得する
請求項7乃至11のいずれかに記載の方法。
A step of transmitting character attribute data of the character from the server device to the one terminal device;
The method according to any one of claims 7 to 11, wherein the one terminal device acquires character attribute data of the character from the server device.
前記一の端末装置とは異なる他の端末装置から前記サーバ装置に対し、前記キャラクタのキャラクタ属性データが送信されるステップを備え、
前記サーバ装置は、当該他の端末装置から受信した前記キャラクタのキャラクタ属性データを、前記一の端末装置に送信する
請求項12に記載の方法。
The character attribute data of the character is transmitted to the server device from another terminal device different from the one terminal device,
The method according to claim 12, wherein the server device transmits character attribute data of the character received from the other terminal device to the one terminal device.
前記一の端末装置とは異なる他の端末装置から前記サーバ装置に対し、前記キャラクタの環境属性データが送信されるステップと、
前記サーバ装置が、当該他の端末装置から受信した前記キャラクタの環境属性データに基づき、前記キャラクタのキャラクタ属性データを生成するステップと
を備え、
前記サーバ装置は、前記生成した前記キャラクタのキャラクタ属性データを、前記一の端末装置に送信する
請求項12に記載の方法。
A step of transmitting the environmental attribute data of the character from the other terminal device different from the one terminal device to the server device;
The server device generating character attribute data of the character based on the environmental attribute data of the character received from the other terminal device, and
The method according to claim 12, wherein the server device transmits character attribute data of the generated character to the one terminal device.
任意の端末装置からデータを受信する受信手段と、
データを記憶する記憶手段と、
任意の端末装置にデータを送信する送信手段と
を備え、
前記受信手段は、3次元フィギアの身体を構成するいずれかの部位の外観を示す部位データであって、所定の命令群に従った処理において利用される部位データを任意の端末装置から受信し、
前記記憶手段は、前記受信手段により受信された部位データを記憶し、
前記受信手段は、任意の端末装置から前記記憶手段に記憶されているいずれかの部位データの要求を受信し、
前記送信手段は、前記受信手段により受信された部位データの要求に応じて、要求元の端末装置に対し、要求された部位データを送信し、
前記受信手段は、3次元フィギアの身体の動作を指示する動作指示データであって、前記所定の命令群に従った処理において利用される動作指示データを任意の端末装置から受信し、
前記記憶手段は、前記受信手段により受信された動作指示データを記憶し、
前記受信手段は、任意の端末装置から前記記憶手段に記憶されているいずれかの動作指示データの要求を受信し、
前記送信手段は、前記受信手段により受信された動作指示データの要求に応じて、要求元の端末装置に対し、要求された動作指示データを送信し、
前記受信手段は、3次元フィギアの発する音声の合成に用いられる音声データであって、前記所定の命令群に従った処理において利用される音声データを任意の端末装置から受信し、
前記記憶手段は、前記受信手段により受信された音声データを記憶し、
前記受信手段は、任意の端末装置から前記記憶手段に記憶されているいずれかの音声データの要求を受信し、
前記送信手段は、前記受信手段により受信された音声データの要求に応じて、要求元の端末装置に対し、要求された音声データを送信する
サーバ装置と、
前記サーバ装置にデータを送信する送信手段と、
前記サーバ装置からデータを受信する受信手段と、
データを取得する取得手段と、
画像を表示する表示手段と、
音を発音する発音手段と
を備える端末装置であって、
前記端末装置の前記送信手段は、前記サーバ装置に対し、部位データ、動作指示データおよび音声データの要求を送信し、
前記端末装置の前記受信手段は、前記端末装置の前記送信手段により送信された要求に対する応答として前記サーバ装置から送信されてくる部位データ、動作指示データおよび音声データを受信し、
前記取得手段は、3次元フィギアの発話の内容を示す発話内容データを取得し、
前記表示手段は、前記所定の命令群に従い、前記端末装置の前記受信手段により受信された動作指示データにより示される動作を行う前記端末装置の前記受信手段により受信された部位データにより示される身体の外観を示す画像を表示し、
前記発音手段は、前記所定の命令群に従い、前記端末装置の前記受信手段により受信された音声データにより示される音声を合成して前記取得手段により取得された発話内容データにより示される発話の内容を示す音声を発音する
端末装置と
を備えるシステム。
Receiving means for receiving data from an arbitrary terminal device;
Storage means for storing data;
Transmission means for transmitting data to an arbitrary terminal device,
The receiving means is part data indicating the appearance of any part constituting the body of the three-dimensional figure, and receives part data used in processing according to a predetermined command group from an arbitrary terminal device,
The storage means stores the part data received by the receiving means,
The receiving means receives a request for any part data stored in the storage means from an arbitrary terminal device,
The transmitting means transmits the requested part data to the requesting terminal device in response to the part data request received by the receiving means,
The receiving means is operation instruction data for instructing a body movement of the three-dimensional figure, and receives operation instruction data used in processing according to the predetermined instruction group from an arbitrary terminal device,
The storage means stores the operation instruction data received by the receiving means,
The receiving means receives a request for any operation instruction data stored in the storage means from an arbitrary terminal device,
The transmission means transmits the requested operation instruction data to the requesting terminal device in response to the request for the operation instruction data received by the reception means,
The receiving means is voice data used for synthesizing voice generated by a three-dimensional figure, and receives voice data used in processing according to the predetermined command group from an arbitrary terminal device;
The storage means stores voice data received by the receiving means,
The receiving means receives a request for any audio data stored in the storage means from an arbitrary terminal device,
The transmission means, in response to a request for audio data received by the reception means, a server apparatus that transmits the requested audio data to the requesting terminal device;
Transmitting means for transmitting data to the server device;
Receiving means for receiving data from the server device;
An acquisition means for acquiring data;
Display means for displaying an image;
A terminal device comprising a sound generating means for generating sound,
The transmission means of the terminal device transmits a request for part data, operation instruction data and voice data to the server device,
The receiving means of the terminal device receives part data, operation instruction data and voice data transmitted from the server device as a response to the request transmitted by the transmitting means of the terminal device,
The acquisition means acquires utterance content data indicating the utterance content of the three-dimensional figure,
The display means performs a movement indicated by the operation instruction data received by the receiving means of the terminal device in accordance with the predetermined command group, and the body data indicated by the part data received by the receiving means of the terminal device. Display an image showing the appearance,
The sound generation means synthesizes the speech indicated by the speech data received by the reception means of the terminal device in accordance with the predetermined command group and utters the utterance content indicated by the utterance content data acquired by the acquisition means. And a terminal device that produces the voice to be displayed.
前記サーバ装置の前記受信手段は、動作指示データと発話内容データとの組み合わせを示すアクションデータを任意の端末装置から受信し、
前記記憶手段は、前記サーバ装置の前記受信手段により受信されたアクションデータを記憶し、
前記サーバ装置の前記受信手段は、任意の端末装置から前記記憶手段に記憶されているいずれかのアクションデータの要求を受信し、
前記サーバ装置の前記送信手段は、前記サーバ装置の前記受信手段により受信されたアクションデータの要求に応じて、要求元の端末装置に対し、要求されたアクションデータを送信し、
前記端末装置の前記送信手段は、前記サーバ装置に対し、アクションデータの要求を送信し、
前記端末装置の前記受信手段は、前記端末装置の前記送信手段により送信された要求に対する応答として前記サーバ装置から送信されてくるアクションデータを受信し、
前記表示手段は、前記端末装置の前記受信手段により受信されたアクションデータに示される動作指示データにより示される動作を行う身体の外観を示す画像を表示し、
前記発音手段は、前記端末装置の前記受信手段により受信されたアクションデータに示される発話内容データにより示される発話の内容を示す音声を発音する
請求項15に記載のシステム。
The receiving means of the server device receives action data indicating a combination of operation instruction data and utterance content data from an arbitrary terminal device,
The storage means stores action data received by the receiving means of the server device,
The receiving means of the server device receives a request for any action data stored in the storage means from an arbitrary terminal device,
The transmission means of the server device transmits the requested action data to the requesting terminal device in response to the action data request received by the receiving means of the server device,
The transmission means of the terminal device transmits a request for action data to the server device,
The receiving unit of the terminal device receives action data transmitted from the server device as a response to the request transmitted by the transmitting unit of the terminal device,
The display means displays an image showing the appearance of the body performing the action indicated by the action instruction data indicated in the action data received by the receiving means of the terminal device;
The system according to claim 15, wherein the sound generation unit generates a sound indicating the content of the utterance indicated by the utterance content data indicated by the action data received by the reception unit of the terminal device.
前記サーバ装置は、前記記憶手段に記憶されている複数のアクションデータに基づき、所定の規則に従い、前記記憶手段に記憶されている複数の動作指示データから選択された動作指示データと前記記憶手段に記憶されている複数の発話内容データから選択された発話内容データの組み合わせを新たなアクションデータとして生成する生成手段を備え、
前記記憶手段は、前記生成手段により生成された新たなアクションデータを記憶する
請求項16に記載のシステム。
The server device stores operation instruction data selected from the plurality of operation instruction data stored in the storage means and the storage means according to a predetermined rule based on the plurality of action data stored in the storage means. A generating means for generating a combination of utterance content data selected from a plurality of stored utterance content data as new action data;
The system according to claim 16, wherein the storage unit stores new action data generated by the generation unit.
前記サーバ装置の前記受信手段は、2以上のアクションデータのシーケンスを示すシナリオデータを任意の端末装置から受信し、
前記記憶手段は、前記サーバ装置の前記受信手段により受信されたシナリオデータを記憶し、
前記サーバ装置の前記受信手段は、任意の端末装置から前記記憶手段に記憶されているいずれかのシナリオデータの要求を受信し、
前記サーバ装置の前記送信手段は、前記サーバ装置の前記受信手段により受信されたシナリオデータの要求に応じて、要求元の端末装置に対し、要求されたシナリオデータを送信し、
前記端末装置の前記送信手段は、前記サーバ装置に対し、シナリオデータの要求を送信し、
前記端末装置の前記受信手段は、前記端末装置の前記送信手段により送信された要求に対する応答として前記サーバ装置から送信されてくるシナリオデータを受信し、
前記表示手段は、前記端末装置の前記受信手段により受信されたシナリオデータに示される動作指示データにより示される動作を行う身体の外観を示す画像を表示し、
前記発音手段は、前記端末装置の前記受信手段により受信されたシナリオデータに示される発話内容データにより示される発話の内容を示す音声を発音する
請求項16または17に記載のシステム。
The receiving means of the server device receives scenario data indicating a sequence of two or more action data from an arbitrary terminal device,
The storage means stores scenario data received by the receiving means of the server device,
The receiving means of the server device receives a request for any scenario data stored in the storage means from an arbitrary terminal device,
The transmission unit of the server device transmits the requested scenario data to the requesting terminal device in response to the request for the scenario data received by the receiving unit of the server device,
The transmission means of the terminal device transmits a request for scenario data to the server device,
The receiving unit of the terminal device receives scenario data transmitted from the server device as a response to the request transmitted by the transmitting unit of the terminal device,
The display means displays an image showing the appearance of the body performing the action indicated by the action instruction data indicated in the scenario data received by the receiving means of the terminal device;
The system according to claim 16 or 17, wherein the sound generation unit generates a sound indicating the content of the utterance indicated by the utterance content data indicated by the scenario data received by the receiving unit of the terminal device.
前記サーバ装置は、前記記憶手段に記憶されている複数のシナリオデータに基づき、所定の規則に従い、前記記憶手段に記憶されている複数のアクションデータから選択された複数のアクションデータのシーケンスを示す新たなシナリオデータを生成する生成手段を備え、
前記記憶手段は、前記シナリオデータを生成する生成手段により生成された新たなシナリオデータを記憶する
請求項18に記載のシステム。
The server device newly represents a sequence of a plurality of action data selected from the plurality of action data stored in the storage unit according to a predetermined rule based on the plurality of scenario data stored in the storage unit. A generation means for generating simple scenario data,
The system according to claim 18, wherein the storage unit stores new scenario data generated by the generation unit that generates the scenario data.
前記サーバ装置は、
複数の人間の間でやりとりされた対話の内容を示す対話内容データを取得する取得手段と、
前記サーバ装置の前記取得手段により取得された対話内容データに基づき、所定の規則に従い、発話内容データを生成する生成手段と
を備え、
前記記憶手段は、前記サーバ装置の前記発話内容データを生成する生成手段により生成された発話内容データを記憶し、
前記サーバ装置の前記受信手段は、任意の端末装置から前記記憶手段に記憶されているいずれかの発話内容データの要求を受信し、
前記サーバ装置の前記送信手段は、前記サーバ装置の前記受信手段により受信された発話内容データの要求に応じて、要求元の端末装置に対し、要求された発話内容データを送信し、
前記端末装置の前記送信手段は、前記サーバ装置に対し、発話内容データの要求を送信し、
前記端末装置の前記受信手段は、前記端末装置の前記送信手段により送信された要求に対する応答として前記サーバ装置から送信されてくる発話内容データを受信し、
前記発音手段は、前記端末装置の前記受信手段により受信された発話内容データにより示される発話の内容を示す音声を発音する
請求項15乃至19のいずれかに記載のシステム。
The server device
An acquisition means for acquiring dialogue content data indicating the content of dialogue exchanged between a plurality of people;
Generation means for generating utterance content data according to a predetermined rule based on the conversation content data acquired by the acquisition means of the server device,
The storage means stores the utterance content data generated by the generation means for generating the utterance content data of the server device;
The receiving means of the server device receives a request for any utterance content data stored in the storage means from an arbitrary terminal device,
The transmission unit of the server device transmits the requested utterance content data to the requesting terminal device in response to the request for the utterance content data received by the reception unit of the server device,
The transmission means of the terminal device transmits a request for utterance content data to the server device,
The receiving means of the terminal device receives utterance content data transmitted from the server device as a response to the request transmitted by the transmitting means of the terminal device,
The system according to any one of claims 15 to 19, wherein the sound generation unit generates a sound indicating the content of the utterance indicated by the utterance content data received by the reception unit of the terminal device.
特定の部位データ群により示される外観を備え、特定の音声データ群により示される声色で発声する3次元フィギアをキャラクタとするとき、
前記端末装置は、キャラクタの属性を示すキャラクタ属性データを取得する取得手段を備え、
動作指示データは、当該動作指示データが指示する動作の属性を示す動作属性データを伴い、
発話内容データは、当該発話内容データが示す発話の内容の属性を示す発話内容属性データを伴い、
前記端末装置の前記受信手段は、前記サーバ装置から複数の動作指示データを受信し、
前記端末装置の前記取得手段は、複数の発話内容データを取得し、
前記端末装置は、
前記複数の動作指示データの中から、前記キャラクタ属性データと前記複数の動作指示データの各々に伴う動作属性データとに基づき、一の動作指示データを選択する選択手段と、
前記複数の発話内容データの中から、前記キャラクタ属性データと前記複数の発話内容データの各々に伴う発話内容属性データとに基づき、一の発話内容データを選択する選択手段と
を備え、
前記表示手段は、前記動作指示データを選択する選択手段により選択された前記一の動作指示データが指示する動作を行う身体の外観を示す画像を表示し、
前記発音手段は、前記発話内容データを選択する選択手段により選択された前記一の発話内容データが示す発話の内容を示す音声を発音する
請求項15乃至20のいずれかに記載のシステム。
When the character is a three-dimensional figure that has the appearance indicated by the specific part data group and utters the voice color indicated by the specific voice data group,
The terminal device includes an acquisition unit that acquires character attribute data indicating a character attribute,
The operation instruction data is accompanied by operation attribute data indicating the attribute of the operation indicated by the operation instruction data.
The utterance content data includes utterance content attribute data indicating the attribute of the utterance content indicated by the utterance content data.
The receiving means of the terminal device receives a plurality of operation instruction data from the server device,
The acquisition means of the terminal device acquires a plurality of utterance content data,
The terminal device
Selecting means for selecting one action instruction data from the plurality of action instruction data based on the character attribute data and action attribute data associated with each of the plurality of action instruction data;
Selection means for selecting one utterance content data from the plurality of utterance content data based on the character attribute data and the utterance content attribute data associated with each of the plurality of utterance content data,
The display means displays an image showing the appearance of the body performing the action indicated by the one action instruction data selected by the selection means for selecting the action instruction data;
The system according to any one of claims 15 to 20, wherein the sound generation unit generates a sound indicating the content of the utterance indicated by the one utterance content data selected by the selection unit that selects the utterance content data.
特定の部位データ群により示される外観を備え、特定の音声データ群により示される声色で発声する3次元フィギアをキャラクタとするとき、
前記端末装置は、キャラクタの属性を示すキャラクタ属性データを取得する取得手段を備え、
前記表示手段は、動作指示データにより指示される動作のバリエーションの中から前記キャラクタ属性データに基づき特定される動作を行う身体の外観を示す画像を表示し、
前記発音手段は、発話内容データにより示される発話の内容を示す音声のバリエーションの中から前記キャラクタ属性データに基づき特定される音声を合成する
請求項15乃至21のいずれかに記載のシステム。
When the character is a three-dimensional figure that has the appearance indicated by the specific part data group and utters the voice color indicated by the specific voice data group,
The terminal device includes an acquisition unit that acquires character attribute data indicating a character attribute,
The display means displays an image showing the appearance of the body that performs the action specified based on the character attribute data among the variations of the action indicated by the action instruction data;
The system according to any one of claims 15 to 21, wherein the sound generation unit synthesizes a voice specified based on the character attribute data from voice variations indicating the content of the utterance indicated by the utterance content data.
前記端末装置は、
前記キャラクタにとっての環境の属性を示す環境属性データを取得する取得手段と、
前記環境属性データを取得する取得手段により取得された環境属性データに基づき、前記キャラクタ属性データを生成する生成手段と
を備える請求項21または22に記載のシステム。
The terminal device
Obtaining means for obtaining environmental attribute data indicating an environmental attribute for the character;
The system according to claim 21, further comprising: generation means for generating the character attribute data based on the environment attribute data acquired by the acquisition means for acquiring the environment attribute data.
前記サーバ装置の前記送信手段は、前記端末装置に対し、前記キャラクタの環境属性データを送信し、
前記端末装置の前記受信手段は、前記サーバ装置から、前記キャラクタの環境属性データを受信し、
前記端末装置の前記環境属性データを取得する取得手段は、前記端末装置の前記受信手段により前記サーバ装置から受信された前記環境属性データを取得する
請求項23に記載のシステム。
The transmission means of the server device transmits the environmental attribute data of the character to the terminal device,
The receiving means of the terminal device receives the environmental attribute data of the character from the server device,
The system according to claim 23, wherein the acquisition unit that acquires the environment attribute data of the terminal device acquires the environment attribute data received from the server device by the reception unit of the terminal device.
前記サーバ装置の前記受信手段は、前記端末装置とは異なる他の端末装置から、前記キャラクタの環境属性データを受信し、
前記サーバ装置の前記送信手段は、前記サーバ装置の前記受信手段により当該他の端末装置から受信された前記キャラクタの環境属性データを、前記端末装置に送信する
請求項24に記載のシステム。
The receiving means of the server device receives the environmental attribute data of the character from another terminal device different from the terminal device,
The system according to claim 24, wherein the transmitting unit of the server device transmits the environmental attribute data of the character received from the other terminal device by the receiving unit of the server device to the terminal device.
前記サーバ装置の前記送信手段は、前記端末装置に対し、前記キャラクタのキャラクタ属性データを送信し、
前記端末装置の前記受信手段は、前記サーバ装置から、前記キャラクタのキャラクタ属性データを受信し、
前記端末装置の前記キャラクタ属性データを取得する取得手段は、前記端末装置の前記受信手段により前記サーバ装置から受信された前記キャラクタ属性データを取得する
請求項21乃至25のいずれかに記載のシステム。
The transmission means of the server device transmits character attribute data of the character to the terminal device,
The receiving means of the terminal device receives character attribute data of the character from the server device,
The system according to any one of claims 21 to 25, wherein an acquisition unit that acquires the character attribute data of the terminal device acquires the character attribute data received from the server device by the reception unit of the terminal device.
前記サーバ装置の前記受信手段は、前記端末装置とは異なる他の端末装置から、前記キャラクタのキャラクタ属性データを受信し、
前記サーバ装置の前記送信手段は、前記サーバ装置の前記受信手段により当該他の端末装置から受信された前記キャラクタのキャラクタ属性データを、前記端末装置に送信する
請求項26に記載のシステム。
The receiving means of the server device receives character attribute data of the character from another terminal device different from the terminal device,
The system according to claim 26, wherein the transmission unit of the server device transmits the character attribute data of the character received from the other terminal device by the reception unit of the server device to the terminal device.
前記サーバ装置の前記受信手段は、前記端末装置とは異なる他の端末装置から、前記キャラクタの環境属性データを受信し、
前記サーバ装置は、前記サーバ装置の前記受信手段により当該他の端末装置から受信された前記キャラクタの環境属性データに基づき、前記キャラクタのキャラクタ属性データを生成する生成手段を備え、
前記サーバ装置の前記送信手段は、前記キャラクタ属性データを生成する生成手段により生成された前記キャラクタ属性データを、前記端末装置に送信する
請求項26に記載のシステム。
The receiving means of the server device receives the environmental attribute data of the character from another terminal device different from the terminal device,
The server device includes generation means for generating character attribute data of the character based on environment attribute data of the character received from the other terminal device by the receiving means of the server device,
The system according to claim 26, wherein the transmission unit of the server device transmits the character attribute data generated by the generation unit that generates the character attribute data to the terminal device.
任意の端末装置からデータを受信する受信手段と、
データを記憶する記憶手段と、
任意の端末装置にデータを送信する送信手段と
を備え、
前記受信手段は、3次元フィギアの身体を構成するいずれかの部位の外観を示す部位データであって、所定の命令群に従った処理において利用される部位データを任意の端末装置から受信し、
前記記憶手段は、前記受信手段により受信された部位データを記憶し、
前記受信手段は、任意の端末装置から前記記憶手段に記憶されているいずれかの部位データの要求を受信し、
前記送信手段は、前記受信手段により受信された部位データの要求に応じて、要求元の端末装置に対し、要求された部位データを送信し、
前記受信手段は、3次元フィギアの身体の動作を指示する動作指示データであって、前記所定の命令群に従った処理において利用される動作指示データを任意の端末装置から受信し、
前記記憶手段は、前記受信手段により受信された動作指示データを記憶し、
前記受信手段は、任意の端末装置から前記記憶手段に記憶されているいずれかの動作指示データの要求を受信し、
前記送信手段は、前記受信手段により受信された動作指示データの要求に応じて、要求元の端末装置に対し、要求された動作指示データを送信し、
前記受信手段は、3次元フィギアの発する音声の合成に用いられる音声データであって、前記所定の命令群に従った処理において利用される音声データを任意の端末装置から受信し、
前記記憶手段は、前記受信手段により受信された音声データを記憶し、
前記受信手段は、任意の端末装置から前記記憶手段に記憶されているいずれかの音声データの要求を受信し、
前記送信手段は、前記受信手段により受信された音声データの要求に応じて、要求元の端末装置に対し、要求された音声データを送信する
サーバ装置。
Receiving means for receiving data from an arbitrary terminal device;
Storage means for storing data;
Transmission means for transmitting data to an arbitrary terminal device,
The receiving means is part data indicating the appearance of any part constituting the body of the three-dimensional figure, and receives part data used in processing according to a predetermined command group from an arbitrary terminal device,
The storage means stores the part data received by the receiving means,
The receiving means receives a request for any part data stored in the storage means from an arbitrary terminal device,
The transmitting means transmits the requested part data to the requesting terminal device in response to the part data request received by the receiving means,
The receiving means is operation instruction data for instructing a body movement of the three-dimensional figure, and receives operation instruction data used in processing according to the predetermined instruction group from an arbitrary terminal device,
The storage means stores the operation instruction data received by the receiving means,
The receiving means receives a request for any operation instruction data stored in the storage means from an arbitrary terminal device,
The transmission means transmits the requested operation instruction data to the requesting terminal device in response to the request for the operation instruction data received by the reception means,
The receiving means is voice data used for synthesizing voice generated by a three-dimensional figure, and receives voice data used in processing according to the predetermined command group from an arbitrary terminal device;
The storage means stores voice data received by the receiving means,
The receiving means receives a request for any audio data stored in the storage means from an arbitrary terminal device,
The server device transmits the requested audio data to the requesting terminal device in response to the audio data request received by the receiving device.
サーバ装置にデータを送信する送信手段と、
前記サーバ装置からデータを受信する受信手段と、
データを取得する取得手段と、
画像を表示する表示手段と、
音を発音する発音手段と
を備える端末装置であって、
前記送信手段は、前記サーバ装置に対し、3次元フィギアの身体を構成するいずれかの部位の外観を示す部位データであって、所定の命令群に従った処理において利用される部位データと、3次元フィギアの身体の動作を指示する動作指示データであって、前記所定の命令群に従った処理において利用される動作指示データと、3次元フィギアの発する音声の合成に用いられる音声データであって、前記所定の命令群に従った処理において利用される音声データとの要求を送信し、
前記受信手段は、前記送信手段により送信された要求に対する応答として前記サーバ装置から送信されてくる部位データ、動作指示データおよび音声データを受信し、
前記取得手段は、3次元フィギアの発話の内容を示す発話内容データを取得し、
前記表示手段は、前記所定の命令群に従い、前記受信手段により受信された動作指示データにより示される動作を行う前記受信手段により受信された部位データにより示される身体の外観を示す画像を表示し、
前記発音手段は、前記所定の命令群に従い、前記受信手段により受信された音声データにより示される音声を合成して前記取得手段により取得された発話内容データにより示される発話の内容を示す音声を発音する
端末装置。
Transmitting means for transmitting data to the server device;
Receiving means for receiving data from the server device;
An acquisition means for acquiring data;
Display means for displaying an image;
A terminal device comprising a sound generating means for generating sound,
The transmission means is part data indicating the appearance of any part constituting the body of the three-dimensional figure for the server device, and part data used in processing according to a predetermined command group; Action instruction data for instructing the body movement of the three-dimensional figure, the action instruction data used in the processing according to the predetermined command group, and the voice data used for synthesizing the voice generated by the three-dimensional figure. , Sending a request with voice data used in the processing according to the predetermined instruction group,
The receiving means receives the part data, operation instruction data and voice data transmitted from the server device as a response to the request transmitted by the transmitting means,
The acquisition means acquires utterance content data indicating the utterance content of the three-dimensional figure,
The display means displays an image showing the appearance of the body indicated by the part data received by the receiving means for performing the action indicated by the action instruction data received by the receiving means according to the predetermined command group,
The sound generation means generates a sound indicating the content of the utterance indicated by the utterance content data acquired by the acquisition means by synthesizing the voice indicated by the voice data received by the reception means according to the predetermined command group. A terminal device.
コンピュータを、
請求項29に記載のサーバ装置が備える前記受信手段、前記記憶手段および前記送信手段として機能させるプログラム。
Computer
30. A program that functions as the reception unit, the storage unit, and the transmission unit included in the server device according to claim 29.
コンピュータを、
請求項30に記載の端末装置が備える前記送信手段、前記受信手段、前記取得手段、前記表示手段および前記発音手段として機能させるプログラム。
Computer
A program causing the terminal device according to claim 30 to function as the transmission unit, the reception unit, the acquisition unit, the display unit, and the sound generation unit.
JP2012039447A 2012-02-25 2012-02-25 Method, system, server device, terminal device, and program for distributing data constituting three-dimensional figure Active JP5756969B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012039447A JP5756969B2 (en) 2012-02-25 2012-02-25 Method, system, server device, terminal device, and program for distributing data constituting three-dimensional figure

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012039447A JP5756969B2 (en) 2012-02-25 2012-02-25 Method, system, server device, terminal device, and program for distributing data constituting three-dimensional figure

Publications (2)

Publication Number Publication Date
JP2013175066A true JP2013175066A (en) 2013-09-05
JP5756969B2 JP5756969B2 (en) 2015-07-29

Family

ID=49267910

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012039447A Active JP5756969B2 (en) 2012-02-25 2012-02-25 Method, system, server device, terminal device, and program for distributing data constituting three-dimensional figure

Country Status (1)

Country Link
JP (1) JP5756969B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015155936A (en) * 2014-02-19 2015-08-27 シャープ株式会社 Information processing device, voice interactive device, and control program
JP2017212557A (en) * 2016-05-24 2017-11-30 エヌ・ティ・ティ・コミュニケーションズ株式会社 Controller, dialog system, control method, and computer program
JP2020027672A (en) * 2019-10-15 2020-02-20 株式会社ユピテル Device and program
JP2023092849A (en) * 2021-12-22 2023-07-04 凸版印刷株式会社 Content management system, content management method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001043399A (en) * 1999-06-11 2001-02-16 Pulse Entertainment Inc Three-dimensional animation system and method
JP2001236290A (en) * 2000-02-22 2001-08-31 Toshinao Komuro Communication system using avatar
JP2002360936A (en) * 2001-06-07 2002-12-17 Sony Corp Character data management system, character server, character data management method and program
JP2007249884A (en) * 2006-03-20 2007-09-27 Fujitsu Ltd Program, apparatus and method for verifying software

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001043399A (en) * 1999-06-11 2001-02-16 Pulse Entertainment Inc Three-dimensional animation system and method
JP2001236290A (en) * 2000-02-22 2001-08-31 Toshinao Komuro Communication system using avatar
JP2002360936A (en) * 2001-06-07 2002-12-17 Sony Corp Character data management system, character server, character data management method and program
JP2007249884A (en) * 2006-03-20 2007-09-27 Fujitsu Ltd Program, apparatus and method for verifying software

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG200401112003; 岩城 敏: '未来型コミュニケーションにおける第5のメディア:モーションメディアの役割' 電子情報通信学会技術研究報告 Vol.102 No.354 第102巻, 20020924, 第9-12頁, 社団法人電子情報通信学会 *
JPN6014039314; 岩城 敏: '未来型コミュニケーションにおける第5のメディア:モーションメディアの役割' 電子情報通信学会技術研究報告 Vol.102 No.354 第102巻, 20020924, 第9-12頁, 社団法人電子情報通信学会 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015155936A (en) * 2014-02-19 2015-08-27 シャープ株式会社 Information processing device, voice interactive device, and control program
JP2017212557A (en) * 2016-05-24 2017-11-30 エヌ・ティ・ティ・コミュニケーションズ株式会社 Controller, dialog system, control method, and computer program
JP2020027672A (en) * 2019-10-15 2020-02-20 株式会社ユピテル Device and program
JP2023092849A (en) * 2021-12-22 2023-07-04 凸版印刷株式会社 Content management system, content management method, and program

Also Published As

Publication number Publication date
JP5756969B2 (en) 2015-07-29

Similar Documents

Publication Publication Date Title
AU2020239704B2 (en) Emotion type classification for interactive dialog system
Kolesnichenko et al. Understanding emerging design practices for avatar systems in the commercial social vr ecology
JP2019523714A (en) Multi-interaction personality robot
TW201913300A (en) Human-computer interaction method and human-computer interaction system
US20100083139A1 (en) Virtual universe avatar companion
CN107000210A (en) Apparatus and method for providing lasting partner device
JP5756969B2 (en) Method, system, server device, terminal device, and program for distributing data constituting three-dimensional figure
Prendinger et al. MPML3D: Scripting agents for the 3D internet
US10272349B2 (en) Dialog simulation
JP2021074256A (en) Computer program, server device and method
Origlia et al. FANTASIA: a framework for advanced natural tools and applications in social, interactive approaches
KR100880613B1 (en) System and method for supporting emotional expression of intelligent robot and intelligent robot system using the same
Vilhjálmsson Avatar augmented online conversation
CN115115753A (en) Animation video processing method, device, equipment and storage medium
Bernsen et al. First prototype of conversational HC Andersen
JP2021045554A (en) Computer program, server device, terminal device and method
Feng et al. A platform for building mobile virtual humans
CN117560340B (en) Information interaction method, device and storage medium based on simulated roles
WO2024047717A1 (en) Pseudo player character control device, pseudo player character control method, and computer program
Montané-Jiménez et al. Context-aware groupware systems and video games: State of the art
KR20100012525A (en) Method and system for generating ria based character movie clip
Kamiwada et al. Service robot platform technologies that enhance customer contact points
Geraci Design and implementation of embodied conversational agents
Allawerdi Gamers and non-gamers preferences ofcrossmodal AI assistants: A remote explorative study on the uncanny
Zhang Virtual reality application in data visualization and analysis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140602

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20140707

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20140828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140918

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141103

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150129

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150302

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150423

R150 Certificate of patent or registration of utility model

Ref document number: 5756969

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150