JP7368298B2 - Content distribution server, content creation device, educational terminal, content distribution program, and educational program - Google Patents

Content distribution server, content creation device, educational terminal, content distribution program, and educational program Download PDF

Info

Publication number
JP7368298B2
JP7368298B2 JP2020065327A JP2020065327A JP7368298B2 JP 7368298 B2 JP7368298 B2 JP 7368298B2 JP 2020065327 A JP2020065327 A JP 2020065327A JP 2020065327 A JP2020065327 A JP 2020065327A JP 7368298 B2 JP7368298 B2 JP 7368298B2
Authority
JP
Japan
Prior art keywords
data
content
specification data
material data
educational
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020065327A
Other languages
Japanese (ja)
Other versions
JP2021006894A5 (en
JP2021006894A (en
Inventor
量生 川上
尚 小嶋
寛明 齊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dwango Co Ltd
Original Assignee
Dwango Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019120240A external-priority patent/JP6766228B1/en
Application filed by Dwango Co Ltd filed Critical Dwango Co Ltd
Priority to JP2020065327A priority Critical patent/JP7368298B2/en
Publication of JP2021006894A publication Critical patent/JP2021006894A/en
Publication of JP2021006894A5 publication Critical patent/JP2021006894A5/ja
Priority to JP2023177029A priority patent/JP2023181234A/en
Application granted granted Critical
Publication of JP7368298B2 publication Critical patent/JP7368298B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Electrically Operated Instructional Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Description

本発明は、ICT(Information and Communication Technology)を利用した遠隔教育に関する。 The present invention relates to distance education using ICT (Information and Communication Technology).

従来、ICTを利用した遠隔教育が試みられている。例えば、一般的なeラーニングシステムにおいて、サーバは、収録済みの教育コンテンツを、インターネット経由で生徒の端末へ配信する。故に、生徒は、従来の対面型の授業に比べて場所や時間の制約を受けずに学習をすることができる。 Distance education using ICT has been attempted in the past. For example, in a typical e-learning system, a server delivers recorded educational content to student terminals via the Internet. Therefore, students can study without being restricted by location or time compared to traditional face-to-face classes.

また、特許文献1には、進行中授業データをリアルタイムに生徒用端末に提供する授業システムが開示されている。 Further, Patent Document 1 discloses a lesson system that provides ongoing lesson data to student terminals in real time.

特許第6227816号Patent No. 6227816

収録済みの教育コンテンツを単に配信するだけでは、生徒にとって教師や他の生徒の存在を感じにくい。また、生徒は、動画を見て音声を聴く以外に授業に関与することができず、受動的な態度になりがちである。 Simply distributing pre-recorded educational content makes it difficult for students to feel the presence of teachers and other students. In addition, students are unable to participate in class other than watching videos and listening to audio, and tend to have a passive attitude.

他方、収録中の教育コンテンツをリアルタイムに配信することにより、生徒は教師の存在をリアルに感じることができ、逆もまた然りである。また、例えばチャット、コメント機能などのコミュニケーションツールを用意することで、教師や他の生徒の反応を期待して能動的に授業に参加するように生徒を促すこともできる。 On the other hand, by distributing the educational content being recorded in real time, students can feel the teacher's presence in real time, and vice versa. Furthermore, by providing communication tools such as chat and comment functions, students can be encouraged to actively participate in class in anticipation of reactions from teachers and other students.

しかしながら、収録済みの教育コンテンツを提供する場合、および収録中の教育コンテンツをリアルタイムに提供する場合のいずれにおいても、提供されるコンテンツ自体は再収録されない限り変わることはない。故に、生徒が同じテーマの授業を再受講しようとしても過去に視聴したコンテンツと全く同じコンテンツを再生せざるを得ず、復習や再学習のモチベーションが沸きにくいという問題がある。 However, in both cases of providing recorded educational content and providing educational content that is currently being recorded in real time, the provided content itself will not change unless it is re-recorded. Therefore, even if students try to retake a class on the same theme, they are forced to play back exactly the same content that they watched in the past, creating a problem in which it is difficult to motivate them to review or re-study.

本発明は、遠隔教育システムによって提供される教育コンテンツの興趣性を高めて生徒の受講意欲を促進することを目的とする。 An object of the present invention is to increase the interest of educational content provided by a distance education system and to encourage students' desire to attend the course.

本発明の第1の態様に係るコンテンツ配信サーバは、素材データ配信部と、受信データ取得部と、素材データ変更部とを含む。素材データ配信部は、遠隔授業用の教育コンテンツを構成する仮想空間内に配置される複数のオブジェクトの仕様を示す第1の仕様データと、複数のオブジェクトの動きを示すモーションデータとを教育端末へ配信する。受信データ取得部は、外部装置から受信される、第1の仕様データの少なくとも一部を変更するための要求を取得する。素材データ変更部は、第1の仕様データを要求に応じて第1の仕様データとは異なる第2の仕様データに変更する。素材データ配信部は、第1の仕様データが第2の仕様データに変更された後に、第2の仕様データを教育端末に配信する。 A content distribution server according to a first aspect of the present invention includes a material data distribution section, a received data acquisition section, and a material data modification section. The material data distribution unit sends first specification data indicating the specifications of a plurality of objects placed in a virtual space that constitutes educational content for distance learning and motion data indicating the movement of the plurality of objects to an educational terminal. To deliver. The received data acquisition unit acquires a request for changing at least a portion of the first specification data, which is received from an external device. The material data changing unit changes the first specification data into second specification data different from the first specification data in response to a request. The material data distribution unit distributes the second specification data to the educational terminal after the first specification data is changed to the second specification data.

本発明の第2の態様に係るコンテンツ作成装置は、再生部と、入力データ取得部と、素材データ生成部とを含む。再生部は、授業内容の提示に関わるオブジェクトの仕様を示す第1の仕様データとオブジェクトの動きを示す第1のモーションデータとに基づく参照用コンテンツを再生する。入力データ取得部は、参照用コンテンツの再生中のユーザの動きに基づく第2のモーションデータと、参照用コンテンツの再生中のユーザの発声に基づく音声データとを取得する。素材データ生成部は、第1の仕様データと、ユーザに対応するアバターの仕様を示す第2の仕様データと、第1のモーションデータと、第2のモーションデータと、音声データとに基づいて、遠隔授業用の教育コンテンツを構成する仮想空間を再現するために用いられる素材データを生成する。 A content creation device according to a second aspect of the present invention includes a playback section, an input data acquisition section, and a material data generation section. The reproduction unit reproduces reference content based on first specification data indicating specifications of an object related to presentation of lesson content and first motion data indicating movement of the object. The input data acquisition unit acquires second motion data based on the user's movement while the reference content is being played back, and audio data based on the user's utterances while the reference content is being played back. The material data generation unit generates data based on the first specification data, the second specification data indicating the specifications of the avatar corresponding to the user, the first motion data, the second motion data, and the audio data. Generate material data used to reproduce the virtual space that makes up the educational content for distance learning.

本発明の第3の態様に係る教育端末は、入力データ取得部と、再生部とを含む。入力データ取得部は、遠隔授業用の教育コンテンツを構成する仮想空間内に配置される複数のオブジェクトの仕様を示す第1の仕様データの少なくとも一部を変更するための要求に相当する入力データを取得する。再生部は、第1の仕様データに対して要求に基づく変更がなされた第2の仕様データと複数のオブジェクトの動きを示すモーションデータとに基づいて再現される仮想空間を撮影した授業動画データを授業音声データとともに再生する。 An educational terminal according to a third aspect of the present invention includes an input data acquisition section and a reproduction section. The input data acquisition unit receives input data corresponding to a request to change at least a portion of first specification data indicating specifications of a plurality of objects arranged in a virtual space that constitutes educational content for distance learning. get. The playback unit reproduces lesson video data that captures a virtual space that is reproduced based on second specification data obtained by changing the first specification data based on a request and motion data indicating movements of a plurality of objects. Play along with the lesson audio data.

本発明によれば、遠隔教育システムによって提供される教育コンテンツの興趣性を高めて生徒の受講意欲を促進することができる。 According to the present invention, it is possible to increase the interest of educational content provided by a distance education system and encourage students' desire to attend the course.

第1の実施形態に係る教育端末を例示するブロック図。FIG. 1 is a block diagram illustrating an educational terminal according to a first embodiment. 図1の教育端末を含む遠隔教育システムを例示するブロック図。2 is a block diagram illustrating a distance education system including the education terminal of FIG. 1. FIG. 第1の実施形態に係るコンテンツ配信サーバを例示するブロック図。FIG. 1 is a block diagram illustrating a content distribution server according to a first embodiment. 図1の教育端末における教育コンテンツの再生画面を例示する図。FIG. 2 is a diagram illustrating a playback screen of educational content on the educational terminal of FIG. 1; ユーザからの要求に基づいて図4の教育コンテンツにおける教師のアバターを変更した後の、図1の教育端末における教育コンテンツの再生画面を例示する図。5 is a diagram illustrating a playback screen of the educational content on the educational terminal of FIG. 1 after the teacher's avatar in the educational content of FIG. 4 has been changed based on a request from a user. FIG. ユーザからの要求に基づいて図5の教育コンテンツに生徒のアバターを追加した後の、図1の教育端末における教育コンテンツの再生画面を例示する図。6 is a diagram illustrating a playback screen of the educational content on the educational terminal of FIG. 1 after a student's avatar is added to the educational content of FIG. 5 based on a request from a user. FIG. 図1の教育端末の動作を例示するフローチャート。2 is a flowchart illustrating the operation of the educational terminal in FIG. 1. 図2のコンテンツ配信サーバの動作を例示するフローチャート。3 is a flowchart illustrating the operation of the content distribution server of FIG. 2. 第2の実施形態に係るコンテンツ作成装置を例示するブロック図。FIG. 2 is a block diagram illustrating a content creation device according to a second embodiment. 図9のコンテンツ作成装置の動作を例示するフローチャート。10 is a flowchart illustrating the operation of the content creation device of FIG. 9. 第3の実施形態に係る教育端末を例示するブロック図。FIG. 7 is a block diagram illustrating an educational terminal according to a third embodiment. 図11の教育端末の動作を例示するフローチャート。12 is a flowchart illustrating the operation of the educational terminal in FIG. 11.

以下、図面を参照しながら実施形態の説明を述べる。なお、以降、説明済みの要素と同一または類似の要素には同一または類似の符号を付し、重複する説明については基本的に省略する。例えば、複数の同一または類似の要素が存在する場合に、各要素を区別せずに説明するために共通の符号を用いることがあるし、各要素を区別して説明するために当該共通の符号に加えて枝番号を用いることもある。 Hereinafter, embodiments will be described with reference to the drawings. Note that, hereinafter, elements that are the same or similar to elements that have already been explained will be given the same or similar numerals, and overlapping explanations will basically be omitted. For example, when there are multiple identical or similar elements, a common code may be used to explain each element without distinction, or a common code may be used to distinguish and explain each element. In addition, branch numbers may also be used.

(第1の実施形態)
第1の実施形態に係る教育端末およびコンテンツ配信サーバは、図2に例示される遠隔教育システムに組み込むことができる。このシステムは、実施形態に係る教育端末10-1,10-2,10-3,・・・と、コンテンツ配信サーバ20とを含む。コンテンツ配信サーバ20は、各教育端末10と例えばインターネットなどのネットワーク経由で接続されており、互いにデータを送受信できる。また、コンテンツ配信サーバ20は、他の図示されないサーバ、例えばWebサーバ、コメントサーバ、などともネットワーク経由で接続され、互いにデータを送受信してもよい。
(First embodiment)
The education terminal and content distribution server according to the first embodiment can be incorporated into the distance education system illustrated in FIG. 2. This system includes educational terminals 10-1, 10-2, 10-3, . . . according to the embodiment, and a content distribution server 20. The content distribution server 20 is connected to each educational terminal 10 via a network such as the Internet, and can exchange data with each other. The content distribution server 20 may also be connected to other servers (not shown), such as a web server, a comment server, etc. via a network, and may exchange data with each other.

教育端末10は、コンピュータなどの電子デバイス、例えば、PC(Personal Computer)、モバイル端末(例えば、タブレット、スマートフォン、ラップトップ、フィーチャーフォン、ポータブルゲーム機、など)、HMD(Head Mounted Display)、ゲーム機、テレビ受像機(インターネットテレビを含む)、などであり得るが、これらに限られない。 The educational terminal 10 is an electronic device such as a computer, for example, a PC (Personal Computer), a mobile terminal (for example, a tablet, a smartphone, a laptop, a feature phone, a portable game console, etc.), an HMD (Head Mounted Display), or a game console. , a television receiver (including Internet television), etc., but is not limited to these.

教育端末10のユーザは、主に授業の生徒であるが、授業の教師を含み得る。例えば、教師は、遠隔授業用の教育コンテンツの収録、送信(アップロード)、教育コンテンツへの教材オブジェクトの追加、などのために教育端末10を使用し得る。教育端末10を教育コンテンツの収録に利用する場合には、教育端末10は、教師の動きを補足するための動き検出装置およびマイクロフォンを内蔵し、またはこれらに接続されることになる。動き検出装置は、例えば慣性センサ、ドップラーセンサ、3Dカメラ、などであり得る。 Users of the educational terminal 10 are mainly students in the class, but may also include the teacher in the class. For example, a teacher may use the educational terminal 10 to record, transmit (upload) educational content for remote classes, add teaching material objects to the educational content, and the like. When the educational terminal 10 is used to record educational content, the educational terminal 10 has a built-in motion detection device and a microphone for capturing the teacher's movements, or is connected to these. The motion detection device can be, for example, an inertial sensor, a Doppler sensor, a 3D camera, etc.

コンテンツ配信サーバ20は、教育端末10からの配信開始要求に応じて、教育コンテンツを提供する。コンテンツ配信サーバ20は、教育コンテンツの収録中に当該教育コンテンツをリアルタイムに提供してもよいし、収録済みの教育コンテンツを提供してもよい。また、コンテンツ配信サーバ20は、リアルタイムに提供した教育コンテンツを、当該教育コンテンツの収録後にも提供してもよい。教育コンテンツは、例えば動き検出装置、マイクロフォンなどを接続したコンテンツ配信サーバ20によって収録されてもよいし、教師用の教育端末10または他の端末によって収録されコンテンツ配信サーバ20へ逐次送信されてもよい。 The content distribution server 20 provides educational content in response to a distribution start request from the educational terminal 10. The content distribution server 20 may provide educational content in real time while the educational content is being recorded, or may provide recorded educational content. Further, the content distribution server 20 may also provide the educational content provided in real time after the educational content is recorded. The educational content may be recorded by the content distribution server 20 to which a motion detection device, a microphone, etc. are connected, or may be recorded by the teacher's educational terminal 10 or another terminal and sequentially transmitted to the content distribution server 20. .

教育コンテンツは、典型的には、遠隔に居る生徒に臨場感あふれる授業を体験させることのできる、VR(Virtual Reality)、AR(Augmented Reality)、MR(Mixed Reality)、SR(Substitutional Reality)などの仮想的コンテンツを含み得る。コンテンツ配信サーバ20は、かかる教育コンテンツを構成する仮想空間をある視点から撮影した授業動画データを教育端末10に配信してもよいし、当該授業動画データをレンダリングするための材料を含む素材データを教育端末10に配信してもよい。 Educational content typically uses VR (Virtual Reality), AR (Augmented Reality), MR (Mixed Reality), SR (Substitutional Reality), etc., which allow remote students to experience classes with a sense of realism. May include virtual content. The content distribution server 20 may distribute to the educational terminal 10 lesson video data captured from a certain viewpoint in a virtual space constituting the educational content, or may distribute material data including materials for rendering the lesson video data. It may also be distributed to the educational terminal 10.

教育端末10は、図示されないコメントサーバから教育コンテンツに対して生徒または教師によって投稿されたコメントデータを受信し、当該コメントデータの示すコメントを教育コンテンツに重畳して表示してもよい。コメントは、例えば教育コンテンツを構成する仮想空間に配置されるコメント表示用のオブジェクトの表面を所定時間に亘って移動表示されてよい。他方、教育端末10は、ユーザからのテキスト入力に基づいて教育コンテンツに投稿するコメントデータを生成し、コメントサーバへ送信し得る。これにより、教師および生徒は、テキストベースで、同期型コミュニケーション(リアルタイム配信の場合)および/または非同期型コミュニケーションを取ることが可能となる。 The educational terminal 10 may receive comment data posted by students or teachers on educational content from a comment server (not shown), and display comments indicated by the comment data superimposed on the educational content. For example, a comment may be displayed moving over a predetermined period of time on the surface of a comment display object placed in a virtual space that constitutes educational content. On the other hand, the educational terminal 10 can generate comment data to be posted to the educational content based on text input from the user, and transmit it to the comment server. This allows teachers and students to communicate text-based, synchronously (in the case of real-time delivery) and/or asynchronously.

また、教育端末10は、コンテンツ配信サーバ20から教育コンテンツの一部として授業音声データをさらに受信して再生する。この授業音声データは、教師が収録時に発声した音声を含み、さらに生徒が発声した音声(の一部)を含んでもよい。この場合に、教育端末10(の一部)は、図示されないマイクロフォンによって検出した生徒の音声に基づいて音声データを生成し、コンテンツ配信サーバ20に送信し得る。これにより、生徒により臨場感あふれる授業を体験させることが可能となるとともに、教師および生徒が、音声ベースで、同期型コミュニケーション(リアルタイム配信の場合)および/または非同期型コミュニケーションを取ることが可能となる。 Furthermore, the educational terminal 10 further receives lesson audio data as part of the educational content from the content distribution server 20 and reproduces it. This lesson audio data includes the audio uttered by the teacher during recording, and may also include (part of) the audio uttered by the students. In this case, (a part of) the educational terminal 10 may generate audio data based on the student's voice detected by a microphone (not shown) and transmit it to the content distribution server 20. This allows students to have a more immersive class experience, and allows teachers and students to communicate synchronously (in the case of real-time delivery) and/or asynchronously based on voice. .

なお、図2において示される各装置の数は、例示に過ぎない。例えば、教育端末10の数は、時々刻々と変化するので、0となることがあり得るし、数百、数千となることもあり得る。さらに、図2に示されないWebサーバ、コメントサーバなどがさらに設けられてもよい。 Note that the number of each device shown in FIG. 2 is merely an example. For example, the number of educational terminals 10 changes from moment to moment, so it may be zero, or it may be hundreds or thousands. Furthermore, a web server, a comment server, etc. not shown in FIG. 2 may be further provided.

以下、図1を用いて教育端末10の構成について詳しく説明する。
図1に例示されるように、教育端末10は、通信I/F(インタフェース) 101と、入出力I/F 102と、プロセッサ110と、メモリ120とを含む。
Hereinafter, the configuration of the educational terminal 10 will be explained in detail using FIG. 1.
As illustrated in FIG. 1, the educational terminal 10 includes a communication I/F (interface) 101, an input/output I/F 102, a processor 110, and a memory 120.

通信I/F 101は、例えば、移動通信(例えば、3G、4G、5G、モバイルWiMAX)、Wi-Fi、WiMAXなどの通信技術を利用して、ネットワーク、典型的にはインターネット経由でコンテンツ配信サーバ20と通信をする。通信I/F 101は、種々のデータをプロセッサ110から受け取ってコンテンツ配信サーバ20へ送信し、種々のデータをコンテンツ配信サーバ20から受信してプロセッサ110へ送り得る。 The communication I/F 101 uses a communication technology such as mobile communication (e.g., 3G, 4G, 5G, mobile WiMAX), Wi-Fi, WiMAX, etc. to connect a content distribution server via a network, typically the Internet. Communicate with 20. Communication I/F 101 can receive various data from processor 110 and transmit it to content distribution server 20, and can receive various data from content distribution server 20 and transmit it to processor 110.

具体的には、通信I/F 101は、コンテンツ配信サーバ20から素材データを受信し、これを受信データ取得部111へ送る。なお、素材データは、エンコードされていてもよいし、エンコードされていなくてもよい。前者の場合には、素材データ記憶部121への読み出し前または素材データ記憶部121からの読み出し後に図示されないデコーダによって素材データをデコードする必要がある。 Specifically, the communication I/F 101 receives material data from the content distribution server 20 and sends it to the received data acquisition unit 111. Note that the material data may or may not be encoded. In the former case, the material data needs to be decoded by a decoder (not shown) before or after reading it into the material data storage section 121.

入出力I/F 102は、プロセッサ110と外部装置とのデータの入出力に使用するインタフェースの端子(ポート)であって、I/O(Input/Output)部と呼ぶこともできる。入出力I/F 102は、例えば、タッチスクリーン、キーボード、マウス、テンキー、マイクロフォン、動き検出装置、などの入力装置とプロセッサ110との間のデータのやり取りに使用され得る。同様に、入出力I/F 102は、例えば、ディスプレイ(タッチスクリーンを含み得る)、スピーカなどの出力装置とプロセッサ110との間のデータのやり取りに使用され得る。 The input/output I/F 102 is an interface terminal (port) used for inputting and outputting data between the processor 110 and an external device, and can also be called an I/O (Input/Output) unit. The input/output I/F 102 may be used for exchanging data between the processor 110 and an input device such as a touch screen, keyboard, mouse, numeric keypad, microphone, motion detection device, or the like. Similarly, the input/output I/F 102 may be used to exchange data between the processor 110 and an output device such as a display (which may include a touch screen) or a speaker.

例えば、入出力I/F 102は、再生された授業動画データおよび授業音声データをプロセッサ110から受け取り、これらをディスプレイおよびスピーカにそれぞれ出力する。また、入出力I/F 102は、入力装置から後述されるオブジェクトの仕様データ(の少なくとも一部)を変更するための要求に相当する入力データ(ユーザ入力)を受け取り、これをプロセッサ110へ送る。このほか、入力データは、マイクロフォンによって生成されたユーザの発声に基づく音声データ、キーボード(スクリーンキーボードを含み得る)によって生成されたコメントデータ、例えば、再生時間の指定、巻き戻し、早送り、再生速度の変更、スキップなどの教育コンテンツの再生制御に関わる要求、などを含み得る。 For example, the input/output I/F 102 receives reproduced lesson video data and lesson audio data from the processor 110, and outputs them to a display and a speaker, respectively. The input/output I/F 102 also receives input data (user input) corresponding to a request to change (at least part of) specification data of an object, which will be described later, from an input device, and sends this to the processor 110. . In addition, the input data may include audio data based on the user's utterances generated by a microphone, comment data generated by a keyboard (which may include an on-screen keyboard), and input data such as specifying playback time, rewinding, fast forwarding, and playback speed. This may include requests related to playback control of educational content, such as changes and skips.

プロセッサ110は、典型的にはCPU(Central Processing Unit)および/またはGPU(Graphics Processing Unit)であるが、マイコン、FPGA(Field Programmable Gate Array)、DSP(Digital Signal Processor)、またはその他の汎用または専用のプロセッサなどであってもよい。 The processor 110 is typically a CPU (Central Processing Unit) and/or a GPU (Graphics Processing Unit), but may also be a microcomputer, an FPGA (Field Programmable Gate Array), or a DSP (Digit Array). signal processor), or other general-purpose or dedicated It may be a processor such as

メモリ120は、プロセッサ110が各処理を実現するために当該プロセッサ110によって実行されるプログラム、例えば、OS(Operating System)、ファームウェア、遠隔教育アプリケーション、など、および当該プロセッサ110によって使用されるデータ、例えば、素材データ、授業動画データ、などを一時的に格納するメモリを含んでいる。メモリは、かかるプログラム/データが展開されるワークエリアを有するRAM(Random Access Memory)を含み得る。 The memory 120 stores programs executed by the processor 110 to implement each process, such as an OS (Operating System), firmware, distance education applications, etc., and data used by the processor 110, such as , material data, lesson video data, etc., are stored temporarily. The memory may include a RAM (Random Access Memory) having a work area in which such programs/data are expanded.

プロセッサ110は、メモリ120に保存されたプログラムを実行することで、図1の受信データ取得部111、レンダラー112、コンテンツ再生部113、入力データ取得部114、および入力データ報告部115として機能し得る。また、メモリ120は、素材データ記憶部121を含み得る。 The processor 110 can function as the received data acquisition section 111, the renderer 112, the content playback section 113, the input data acquisition section 114, and the input data reporting section 115 in FIG. 1 by executing a program stored in the memory 120. . Furthermore, the memory 120 may include a material data storage section 121.

受信データ取得部111は、通信I/F 101からコンテンツ配信サーバ20からの受信データを取得し、これをメモリ120に保存する。例えば、受信データ取得部111は、通信I/F 101から素材データを取得し、これを素材データ記憶部121に保存する。 The received data acquisition unit 111 acquires received data from the content distribution server 20 from the communication I/F 101 and stores it in the memory 120. For example, the received data acquisition unit 111 acquires material data from the communication I/F 101 and stores it in the material data storage unit 121.

レンダラー112は、素材データ記憶部121に保存された素材データのうち教育コンテンツを構成する仮想空間を再現するための材料となるデータ、具体的には、この仮想空間に配置される複数のオブジェクトの仕様を示す仕様データおよび当該複数のオブジェクトの動きを示すモーションデータを読み出す。そして、レンダラー112は、これら仕様データおよびモーションデータに基づいて仮想空間(に配置される各オブジェクトの外観、動き、など)を再現し、これらを基準となる視点(仮想カメラ)から撮影した授業動画データを生成する。レンダラー112は、生成した授業動画データをコンテンツ再生部113へ送る。 The renderer 112 selects data that is the material for reproducing the virtual space that constitutes the educational content among the material data stored in the material data storage unit 121, specifically, the data of the plural objects placed in this virtual space. Specification data indicating specifications and motion data indicating movements of the plurality of objects are read. Then, the renderer 112 reproduces the virtual space (the appearance, movement, etc. of each object placed in it) based on these specification data and motion data, and creates a lesson video shot from a reference viewpoint (virtual camera). Generate data. The renderer 112 sends the generated lesson video data to the content playback unit 113.

コンテンツ再生部113は、レンダラー112から授業動画データを受け取り、素材データ記憶部121から授業音声データを読み出す。そして、コンテンツ再生部113は、授業動画データとともに授業音声データを再生し、教育コンテンツを入出力I/F 102を介して出力装置に出力させる。 The content playback section 113 receives lesson video data from the renderer 112 and reads lesson audio data from the material data storage section 121. Then, the content reproduction unit 113 reproduces the lesson audio data together with the lesson video data, and outputs the educational content to the output device via the input/output I/F 102.

入力データ取得部114は、入出力I/F 102から入力データを取得し、この少なくとも一部を入力データ報告部115へ送る。入力データ取得部114は、コンテンツ配信サーバ20またはコメントサーバへの報告対象となる入力データを入力データ報告部115へ送り、そうでない入力データ、例えば、教育コンテンツの再生制御に関する要求、を例えばレンダラー112および/またはコンテンツ再生部113へ送り得る。 The input data acquisition unit 114 acquires input data from the input/output I/F 102 and sends at least a portion of the input data to the input data reporting unit 115. The input data acquisition unit 114 sends the input data to be reported to the content distribution server 20 or the comment server to the input data reporting unit 115, and sends other input data, such as a request regarding playback control of educational content, to the renderer 112. and/or may be sent to the content reproduction section 113.

入力データ報告部115は、入力データ取得部114から入力データを受け取り、これを通信I/F 101を介してコンテンツ配信サーバ20またはコメント配信サーバに報告する。例えば、入力データ報告部115は、オブジェクトの仕様データを変更するための要求、および音声データをコンテンツ配信サーバ20へ送信し、コメントデータをコメントサーバへ送信してもよい。ここで、オブジェクトの仕様データを変更するための要求は、例えば、仕様データが規定されている複数のオブジェクトに含まれる特定のオブジェクト(アバターを含み得る)の外観、ボイスキャラクター、効果音、音楽などを別のものに差し替える要求、当該特定のオブジェクトの仕様データを削除する要求、当該複数のオブジェクトに含まれない新たなオブジェクト(アバターを含み得る)の仕様データを追加する要求、などを含み得る。 The input data reporting unit 115 receives input data from the input data acquisition unit 114 and reports this to the content distribution server 20 or comment distribution server via the communication I/F 101. For example, the input data reporting unit 115 may send a request to change the specification data of the object and audio data to the content distribution server 20, and may send comment data to the comment server. Here, a request to change the specification data of an object may include, for example, the appearance, voice character, sound effect, music, etc. of a specific object (which may include an avatar) included in multiple objects for which specification data is specified. This may include a request to replace the specified object with another one, a request to delete the specification data of the specific object, a request to add the specification data of a new object (which may include an avatar) that is not included in the plurality of objects, and the like.

素材データ記憶部121は、素材データを保存する。ここで、素材データは、オブジェクトの仕様データおよびモーションデータ、ならびに授業音声データを含む。素材データ記憶部121は、ある教育コンテンツを構成する仮想空間を再現するための素材データを例えば当該教育コンテンツを識別する識別子に関連付けて保存し得る。また、素材データ記憶部121は、各オブジェクトの仕様データおよびモーションデータと当該オブジェクトを識別する識別子に関連付けて保存し得る。 The material data storage unit 121 stores material data. Here, the material data includes object specification data and motion data, and lesson audio data. The material data storage unit 121 can store material data for reproducing a virtual space constituting a certain educational content in association with, for example, an identifier that identifies the educational content. Further, the material data storage unit 121 can store the specification data and motion data of each object in association with an identifier for identifying the object.

仕様データは、例えば、オブジェクトの外観データ、および当該オブジェクトに関して特定の条件が満足した場合に発生させる効果音または音楽を表す効果音データまたは音楽データを含み得る。さらに、アバターのような発声可能なオブジェクトに関しては、当該オブジェクトの声を担当するボイスキャラクターを示すボイスキャラクターデータも当該オブジェクトの仕様データに含められ得る。なお、オブジェクトの仕様データの少なくとも一部は、例えば教育コンテンツの再生開始前に素材データ記憶部121にプリセットされていてもよい。 The specification data may include, for example, appearance data of the object and sound effect data or music data representing sound effects or music to be generated when specific conditions are satisfied regarding the object. Furthermore, with respect to objects that can speak, such as avatars, voice character data indicating a voice character who is responsible for the voice of the object may also be included in the specification data of the object. Note that at least part of the object specification data may be preset in the material data storage unit 121, for example, before the start of reproduction of the educational content.

モーションデータは、教育コンテンツの再生時間毎の、オブジェクトの全身または部位毎の動き、向き(姿勢)、および位置座標などを表す。オブジェクトが教師、生徒またはその他の関係者の分身であるアバターである場合には、当該オブジェクトのモーションデータは本人の全身または部位毎の動きに基づいて動き検出装置によって生成され得る。人間の全身または部位毎の動きに基づくモーションデータの生成には、例えば、慣性センサまたはドップラーセンサのセンシング信号、および/または3Dカメラの撮影データに基づく公知の技法が利用可能である。 The motion data represents the movement, direction (posture), position coordinates, etc. of the whole body or each part of the object for each playback time of the educational content. When the object is an avatar of a teacher, student, or other person concerned, motion data of the object may be generated by a motion detection device based on the movement of the person's whole body or parts. To generate motion data based on the movement of the entire human body or each part, a known technique based on, for example, a sensing signal of an inertial sensor or a Doppler sensor, and/or imaging data of a 3D camera can be used.

素材データは、受信データ取得部111によって素材データ記憶部121に書き込まれる。素材データ記憶部121に保存された素材データのうちオブジェクトの仕様データおよびモーションデータは、レンダラー112によって読み出される。素材データ記憶部121に保存された素材データのうち授業音声データは、コンテンツ再生部113によって読み出される。 The material data is written into the material data storage section 121 by the received data acquisition section 111. Among the material data stored in the material data storage section 121, object specification data and motion data are read out by the renderer 112. Of the material data stored in the material data storage section 121, the lesson audio data is read out by the content reproduction section 113.

入力データ報告部115が、オブジェクトの仕様データを変更するための要求に相当する入力データをコンテンツ配信サーバ20に報告すると、コンテンツ配信サーバ20はこの要求に応じてオブジェクトの仕様データを変更できる。なお、コンテンツ配信サーバ20は、必ずしも全ての教育端末10からのかかる要求に応じる必要はなく、例えば、課金、多数決、抽選、早い者勝ち、など、何らかの条件付きで応じてもよい。 When the input data reporting unit 115 reports input data corresponding to a request to change the specification data of an object to the content distribution server 20, the content distribution server 20 can change the specification data of the object in response to this request. Note that the content distribution server 20 does not necessarily have to respond to such requests from all educational terminals 10, and may respond with some conditions, such as billing, majority voting, lottery, first come, first served, etc.

コンテンツ配信サーバ20は、オブジェクトの仕様データを要求に基づいて変更すると、元の仕様データに対して当該要求に基づく変更がなされた仕様データを各教育端末10へ配信する。この変更後の仕様データは未受信分のモーションデータとともに、通信I/F 101によって受信され、受信データ取得部111によって取得され、素材データ記憶部121に保存される。なお、ここで受信されるモーションデータは、仕様データの変更の有無に関わらず同一であり得る。また、素材データ記憶部121に保存されていた変更前の仕様データは、変更後の仕様データによって書き換えられる。 When the content distribution server 20 changes the specification data of the object based on the request, the content distribution server 20 distributes the specification data obtained by changing the original specification data based on the request to each educational terminal 10 . This changed specification data is received by the communication I/F 101 along with the unreceived motion data, acquired by the received data acquisition unit 111, and stored in the material data storage unit 121. Note that the motion data received here may be the same regardless of whether or not the specification data has been changed. Furthermore, the specification data before the change that was stored in the material data storage section 121 is rewritten with the specification data after the change.

素材データ記憶部121に保存された、変更後の仕様データおよびモーションデータはレンダラー112によって読み出され、授業動画データとしてレンダリングされる。これによって、生徒は、コンテンツ配信サーバ20によってその後に配信される教育コンテンツにおいて、例えば、教師または生徒のアバターの外観および/またはボイスキャラクターを変更したり、新たなオブジェクト(アバターを含み得る)を追加したり、オブジェクトの発生可能な効果音および/または音楽を変更したりすることができる。 The changed specification data and motion data stored in the material data storage unit 121 are read out by the renderer 112 and rendered as lesson video data. This allows the student to, for example, change the appearance and/or voice character of the teacher's or student's avatar, or add new objects (which may include avatars) in the educational content subsequently distributed by the content distribution server 20. and/or change the sound effects and/or music that an object can generate.

例えば、生徒は、図4に示す教育コンテンツに登場する教師アバター31の見た目や声色が気に入らなければ、図5に示すように好みの見た目や声色を別の持つ教師アバター33に変更して授業を受けることができる。 For example, if a student does not like the appearance or voice tone of the teacher avatar 31 that appears in the educational content shown in FIG. Can receive.

また、生徒は、教育コンテンツを構成する仮想空間に自らのアバターを追加することもできる。これにより、図6に示すように、教育コンテンツには教師アバター33以外にも生徒アバター34乃至36が登場することになるので、生徒は他の生徒の存在を感じられるし、教育コンテンツに登場する生徒のアバター数は当該コンテンツの人気度を把握する1つの指標となり得る。例えば、生徒は教育コンテンツのプレビューに映る生徒のアバター数から当該教育コンテンツは人気があるかそうでないかをおよそ把握できる。さらに、生徒のアバター数に依存して、この仮想空間に配置される教室オブジェクトのサイズ、外観などが自動的に変更されてもよい。言い換えれば、変更後の仕様データの示す教室オブジェクトのサイズおよび/または外観は、この仕様データが規定されるアバターの数に依存し得る。例えば、アバターの数が増えるにつれて、収容人数に応じたサイズ/外観の教室オブジェクトが選択され、さらに机および椅子のオブジェクトが追加されてもよい。さらに、教室オブジェクトのサイズアップに伴って、黒板オブジェクト32のサイズも拡大されてよい。 Students can also add their own avatars to the virtual space that constitutes the educational content. As a result, as shown in FIG. 6, the student avatars 34 to 36 appear in the educational content in addition to the teacher avatar 33, so the student can feel the presence of other students and the student avatars 34 to 36 appear in the educational content. The number of student avatars can be one indicator of the popularity of the content. For example, a student can roughly understand whether the educational content is popular or not based on the number of student avatars displayed in the preview of the educational content. Furthermore, the size, appearance, etc. of classroom objects arranged in this virtual space may be automatically changed depending on the number of student avatars. In other words, the size and/or appearance of the classroom object indicated by the changed specification data may depend on the number of avatars for which this specification data is defined. For example, as the number of avatars increases, classroom objects whose size/appearance corresponds to the number of people accommodated may be selected, and objects such as desks and chairs may be added. Furthermore, as the size of the classroom object increases, the size of the blackboard object 32 may also increase.

なお、図4乃至図6の例では、教師や生徒のアバターに加えて、授業内容の提示に関わるオブジェクトとして黒板オブジェクト32が用意されているが、かかるオブジェクトとして、ホワイトボード、プロジェクタ、など任意のオブジェクトが利用可能である。 In addition, in the examples of FIGS. 4 to 6, in addition to the teacher and student avatars, a blackboard object 32 is prepared as an object related to the presentation of lesson content, but such an object may be any arbitrary object such as a whiteboard or a projector. Object is available.

黒板オブジェクト32または他の授業内容の提示に関わるオブジェクトに表示されるテキスト、グラフ、図、写真、動画などの教材は、当該オブジェクトとは別の教材オブジェクトとして定義されてもよい。教師は、例えば、リアルタイム配信または収録後配信時の生徒のコメント、音声などの反応を見て、教材オブジェクトの追加、削除または差し替えをしたり、テキストのフォントの種類、色、サイズなどを変えたり、グラフ、図、写真などのサイズやレイアウトを変えたりすることができる。このような教育コンテンツの手直しは、生徒が一度視聴した教育コンテンツを再視聴する動機付けとなり得る。黒板オブジェクト32には、教室らしさを演出するために、例えば、日付、日直、落書き、などの現実の教室内の黒板に記載されるであろう内容のオブジェクトが貼り付けられてもよい。 Teaching materials such as text, graphs, diagrams, photographs, videos, etc. displayed on the blackboard object 32 or other objects related to presentation of lesson content may be defined as a teaching material object separate from the object. For example, teachers can add, delete, or replace teaching materials objects, or change the font type, color, size, etc. of text based on the reactions of students, such as comments and audio during real-time distribution or post-recording distribution. You can change the size and layout of graphs, diagrams, photos, etc. Such revisions to educational content can motivate students to re-watch educational content that they have already viewed. On the blackboard object 32, objects with contents that would be written on a blackboard in a real classroom, such as the date, daily shifts, and graffiti, may be pasted to create a classroom-like appearance.

さらに、教室オブジェクトの壁には例えば生徒による答案、成績順位表、お絵かきなどの制作物のオブジェクトが貼られてもよい。答案オブジェクトの外観は、例えば、教育コンテンツの再生中に配信されるアンケートまたは他の形式のテストに対する生徒の回答に基づいて生成され得る。また、成績順位表オブジェクトの外観は、かかるテストでのユーザの得点に基づいて生成され、新たに高得点を獲得した生徒が登場する度に、または定期的に更新され得る。高得点を獲得した生徒に対して、教師が賞賛するコメントや音声を事後的に追加してもよいし、当該生徒の教育端末10内でそのような演出が自動的になされてもよい。このような掲示物が教師や他の生徒の目に曝されることは、生徒が、さらなる高得点を目指してテストを受け直したり、より完成度の高い制作物に取り組んだりする動機付けとなり得る。 Furthermore, objects created by students, such as answers, grade lists, drawings, etc., may be pasted on the walls of the classroom object. The appearance of an answer object may be generated, for example, based on student responses to a survey or other type of test that is delivered during playback of the educational content. Further, the appearance of the grade table object may be generated based on the user's score on such a test, and may be updated every time a new student with a high score appears, or periodically. A teacher may add praising comments or voices to students who have obtained high scores after the fact, or such effects may be automatically performed within the student's educational terminal 10. Exposure of such postings to teachers and other students can motivate students to retake tests and work on more complete work in order to achieve even higher scores. .

以下、図3を用いてコンテンツ配信サーバ20の構成について詳しく説明する。
図3に例示されるように、コンテンツ配信サーバ20は、通信I/F 201と、プロセッサ210と、メモリ220とを含む。
The configuration of the content distribution server 20 will be described in detail below using FIG. 3.
As illustrated in FIG. 3, content distribution server 20 includes a communication I/F 201, a processor 210, and a memory 220.

通信I/F 201は、例えば、光通信などの通信技術を利用して、ネットワーク、典型的にはインターネット経由で教育端末10と通信をする。通信I/F 201は、種々のデータをプロセッサ210から受け取って教育端末10へ送信し、種々のデータを教育端末10から受信してプロセッサ210へ送り得る。 The communication I/F 201 uses communication technology such as optical communication to communicate with the educational terminal 10 via a network, typically the Internet. The communication I/F 201 can receive various data from the processor 210 and transmit it to the educational terminal 10, and can receive various data from the educational terminal 10 and transmit it to the processor 210.

具体的には、通信I/F201は、教育端末10から例えば仕様データの変更要求などのデータを受信し、これをプロセッサ210へ送る。また、通信I/F 201は、プロセッサ210から素材データを受け取り、これを教育端末10へ送信する。なお、素材データは、エンコードされていてもよいし、エンコードされていなくてもよい。前者の場合には、コンテンツ配信サーバ20は、素材データをエンコードするエンコーダを備えていてもよい。 Specifically, the communication I/F 201 receives data, such as a request to change specification data, from the educational terminal 10 and sends it to the processor 210. Furthermore, the communication I/F 201 receives material data from the processor 210 and transmits it to the educational terminal 10. Note that the material data may or may not be encoded. In the former case, the content distribution server 20 may include an encoder that encodes the material data.

素材データのうちの授業音声データおよびモーションデータは、例えば教師用の教育端末10からコンテンツ配信サーバ20にアップロードされてもよいし、コンテンツ配信サーバ20に接続された図示されないマイクロフォンおよび動き検出装置によって生成されてもよい。後者の場合に、コンテンツ配信サーバ20は、これらマイクロフォンおよび動き検出装置に接続するための入出力I/Fと、これらからモーションデータおよび授業音声データを取得するための入力データ取得部とを含み得る。素材データのうちの仕様データの初期値は、例えば教育コンテンツの収録前に、教師または遠隔教育システムの管理者によって指定され得る。 The lesson audio data and motion data of the material data may be uploaded to the content distribution server 20 from the teacher's educational terminal 10, for example, or may be generated by a microphone and motion detection device (not shown) connected to the content distribution server 20. may be done. In the latter case, the content distribution server 20 may include an input/output I/F for connecting to these microphones and motion detection devices, and an input data acquisition unit for acquiring motion data and lesson audio data from these. . The initial value of the specification data of the material data may be specified by a teacher or an administrator of the distance education system, for example, before recording the educational content.

プロセッサ210は、典型的にはCPUおよび/またはGPUであるが、マイコン、FPGA、DSP、またはその他の汎用または専用のプロセッサなどであってもよい。 Processor 210 is typically a CPU and/or GPU, but may also be a microcomputer, FPGA, DSP, or other general-purpose or dedicated processor.

メモリ220は、プロセッサ210が各処理を実現するために当該プロセッサ210によって実行されるプログラム、例えば、OS、ファームウェア、遠隔教育アプリケーション、など、および当該プロセッサ210によって使用されるデータ、例えば、素材データ、授業動画データ、などを一時的に格納するメモリを含んでいる。メモリは、かかるプログラム/データが展開されるワークエリアを有するRAMを含み得る。 The memory 220 stores programs executed by the processor 210 to implement each process, such as an OS, firmware, and distance education applications, and data used by the processor 210, such as material data, etc. Contains memory for temporarily storing lesson video data, etc. The memory may include RAM having a work area in which such programs/data are deployed.

プロセッサ210は、メモリ220に保存されたプログラムを実行することで、図3の受信データ取得部211、素材データ変更部212、および素材データ配信部213として機能し得る。また、メモリ220は、素材データ記憶部221を含み得る。 The processor 210 can function as the received data acquisition section 211, material data modification section 212, and material data distribution section 213 in FIG. 3 by executing a program stored in the memory 220. Furthermore, the memory 220 may include a material data storage section 221.

受信データ取得部211は、通信I/F 201から教育端末10または他の外部装置、例えば遠隔教育システムの管理者の端末、からの受信データを取得し、これを素材データ変更部212へ送る。受信データ取得部211は、仕様データを変更するための要求に相当する受信データ(ユーザ入力)を素材データ変更部212へ送る。他方、受信データ取得部211は、他の受信データ、例えば教師用の教育端末10からアップロードされたモーションデータおよび授業音声データ、生徒用の教育端末10からアップロードされた音声データ、などを素材データ記憶部221に書き込み得る。 The received data acquisition unit 211 acquires received data from the education terminal 10 or another external device, such as a terminal of an administrator of a distance education system, from the communication I/F 201 and sends it to the material data change unit 212 . The received data acquisition unit 211 sends received data (user input) corresponding to a request to change the specification data to the material data change unit 212. On the other hand, the received data acquisition unit 211 stores other received data such as motion data and class audio data uploaded from the educational terminal 10 for teachers, audio data uploaded from the educational terminal 10 for students, etc. as material data. It is possible to write to the section 221.

素材データ変更部212は、受信データ取得部211から仕様データを変更するための要求に相当する受信データを受け取り、これに応じて素材データ記憶部221に保存されている仕様データを変更する。例えば、素材データ変更部212は、特定のオブジェクトの仕様データの差し替えを要求された場合には、素材データ記憶部221において対象となる仕様データを要求に含まれる仕様データに書き換え得る。また、素材データ変更部212は、新たなオブジェクトの仕様データの追加を要求された場合には、素材データ変更部212は要求に含まれる仕様データを、対象となる教育コンテンツの識別子に関連付けて素材データ記憶部221に書き込み得る。さらに、素材データ変更部212は、特定のオブジェクトの仕様データの削除を要求された場合には、素材データ変更部212は対象となるオブジェクトの仕様データを素材データ記憶部221から削除し得る。 The material data change unit 212 receives received data corresponding to a request to change specification data from the received data acquisition unit 211, and changes the specification data stored in the material data storage unit 221 in accordance with the received data. For example, when the material data changing section 212 is requested to replace the specification data of a specific object, it can rewrite the target specification data in the material data storage section 221 with the specification data included in the request. Further, when the material data changing unit 212 is requested to add specification data of a new object, the material data changing unit 212 associates the specification data included in the request with the identifier of the target educational content and It can be written to the data storage section 221. Further, when the material data changing unit 212 is requested to delete the specification data of a specific object, the material data changing unit 212 can delete the specification data of the target object from the material data storage unit 221.

前述のように、素材データ変更部212は、必ずしも全ての要求に応じる必要はない。すなわち、素材データ変更部212は、要求に条件付きで応じて仕様データを変更すればよい。 As described above, the material data changing unit 212 does not necessarily have to respond to all requests. That is, the material data changing unit 212 may change the specification data conditionally in response to the request.

素材データ配信部213は、素材データ記憶部221から素材データを読み出し、これを通信I/F 201を介して教育端末10に配信する。なお、素材データ配信部213は、素材データ変更部212によって素材データが変更された後に、変更後の仕様データを教育端末10に配信することになる。 The material data distribution section 213 reads material data from the material data storage section 221 and distributes it to the educational terminal 10 via the communication I/F 201. Note that after the material data is changed by the material data changing section 212, the material data distribution section 213 delivers the changed specification data to the educational terminal 10.

素材データ記憶部221は、素材データを保存する。素材データ記憶部221は、ある教育コンテンツを構成する仮想空間を再現するための素材データを例えば当該教育コンテンツを識別する識別子に関連付けて保存し得る。また、素材データ記憶部221は、各オブジェクトの仕様データおよびモーションデータを当該オブジェクトを識別する識別子に関連付けて保存し得る。 The material data storage unit 221 stores material data. The material data storage unit 221 can store material data for reproducing a virtual space constituting a certain educational content in association with, for example, an identifier that identifies the educational content. Further, the material data storage unit 221 can store the specification data and motion data of each object in association with an identifier that identifies the object.

素材データは、例えば、受信データ取得部211または図示されない入力データ取得部によって素材データ記憶部221に書き込まれ得る。また、素材データは、素材データ変更部212によって書き換えられ得る。素材データ記憶部221に保存された素材データは、素材データ配信部213によって読み出される。 The material data can be written into the material data storage section 221 by, for example, the received data acquisition section 211 or an input data acquisition section (not shown). Further, the material data can be rewritten by the material data changing unit 212. The material data stored in the material data storage section 221 is read out by the material data distribution section 213.

以下、図7を用いて教育端末10の動作を説明する。図7は、教育端末10のユーザがある教育コンテンツの視聴を開始してから終了するまでの当該教育端末10の動作例を表す。 The operation of the educational terminal 10 will be explained below using FIG. 7. FIG. 7 shows an example of the operation of the educational terminal 10 from when the user of the educational terminal 10 starts viewing certain educational content until it ends.

図7の動作が開始すると処理はステップS301へ進む。ステップS301において、受信データ取得部111は、通信I/F 101によって受信された素材データを取得し、素材データ記憶部121に保存する。 When the operation in FIG. 7 starts, the process advances to step S301. In step S<b>301 , the received data acquisition unit 111 acquires the material data received by the communication I/F 101 and stores it in the material data storage unit 121 .

ステップS301において受信される素材データは、例えば、教育端末10がこれから再生する教育コンテンツの所定期間分の再生時間に関連付けられるモーションデータおよび授業音声データを含み得る。さらに、この素材データは、初期の仕様データ、または変更された仕様データを含んでもよい。 The material data received in step S301 may include, for example, motion data and lesson audio data associated with a predetermined period of playback time of the educational content that the educational terminal 10 will play from now on. Furthermore, this material data may include initial specification data or changed specification data.

次に、レンダラー112は、ステップS301において受信された素材データのうちの仕様データおよびモーションデータに基づいて、授業動画データをレンダリングする(ステップS302)。 Next, the renderer 112 renders lesson video data based on the specification data and motion data of the material data received in step S301 (step S302).

そして、コンテンツ再生部113は、ステップS302においてレンダリングされた授業動画データを、ステップS301において受信された素材データのうちの授業音声データとともに再生する(ステップS303)。 Then, the content reproduction unit 113 reproduces the lesson video data rendered in step S302 together with the lesson audio data of the material data received in step S301 (step S303).

他方、入力データ取得部114が仕様データの変更を変更するための要求に相当する入力データを入出力I/F 102を介して取得すると、処理はステップS305へ進む(ステップS304)。ステップS305において、入力データ報告部115は、仕様データの変更の要求に相当する入力データをコンテンツ配信サーバ20に報告する。 On the other hand, when the input data acquisition unit 114 acquires input data corresponding to a request for changing the specification data via the input/output I/F 102, the process advances to step S305 (step S304). In step S305, the input data reporting unit 115 reports input data corresponding to a request to change the specification data to the content distribution server 20.

なお、図7の例では、ステップS304およびステップS305は、ステップS303の後に実行されるように描かれているが、これは必須ではない。すなわち、パイプライン式に実行され得る素材データの受信~教育コンテンツの再生(ステップS301乃至ステップS303)とは独立に、仕様データを変更するための要求の取得をトリガとして当該要求のコンテンツ配信サーバ20への報告が行われてよい。 Note that in the example of FIG. 7, step S304 and step S305 are depicted as being executed after step S303, but this is not essential. That is, independent of the process from receiving material data to playing educational content (steps S301 to S303), which can be executed in a pipeline manner, the content distribution server 20 of the request is triggered by the acquisition of a request to change the specification data. Reports may be made to:

以下、図8を用いてコンテンツ配信サーバ20の動作を説明する。図8は、教育端末10のユーザがある教育コンテンツの視聴を開始してから終了するまでのコンテンツ配信サーバ20の動作例を表す。 The operation of the content distribution server 20 will be described below using FIG. 8. FIG. 8 shows an example of the operation of the content distribution server 20 from when the user of the educational terminal 10 starts viewing certain educational content until it ends.

図8の動作が開始すると処理はステップS401へ進む。ステップS401において、素材データ配信部213は、素材データ記憶部221から素材データを読み出し、これを通信I/F 201を介して教育端末10に配信する。 When the operation in FIG. 8 starts, the process advances to step S401. In step S401, the material data distribution unit 213 reads material data from the material data storage unit 221 and delivers it to the educational terminal 10 via the communication I/F 201.

ステップS401において配信される素材データは、例えば、教育端末10がこれから再生する教育コンテンツの所定期間分の再生時間に関連付けられるモーションデータおよび授業音声データを含み得る。さらに、この素材データは、初期の仕様データ、または変更された仕様データを含んでもよい。 The material data distributed in step S401 may include, for example, motion data and lesson audio data associated with a predetermined period of playback time of the educational content that the educational terminal 10 will play from now on. Furthermore, this material data may include initial specification data or changed specification data.

コンテンツ配信サーバ20は、基本的にこのステップS401を繰り返し実行する。ただし、通信I/F 201が仕様データを変更するための要求を教育端末10から受信すると、処理はステップS403へ進む(ステップS402)。 The content distribution server 20 basically repeatedly executes this step S401. However, when the communication I/F 201 receives a request to change the specification data from the educational terminal 10, the process advances to step S403 (step S402).

ステップS403において、受信データ取得部211は、通信I/F 201によって受信された仕様データを変更するための要求を取得する。次に、素材データ変更部212は、ステップS403において取得された要求に応じて、素材データ記憶部221に保存されている仕様データを変更する(ステップS404)。 In step S403, the received data acquisition unit 211 acquires a request to change the specification data received by the communication I/F 201. Next, the material data changing unit 212 changes the specification data stored in the material data storage unit 221 in response to the request acquired in step S403 (step S404).

そして、ステップS404以後に実行されるステップS401において、素材データ配信部213は、変更後の仕様データを含む素材データを教育端末10に配信することになる。 Then, in step S401 executed after step S404, the material data distribution unit 213 distributes the material data including the changed specification data to the educational terminal 10.

以上説明したように、第1の実施形態に係る教育端末は、教育コンテンツを構成する仮想空間内に配置される複数のオブジェクトの仕様を示す仕様データの少なくとも一部を変更するための要求に相当する入力データを取得し、これを本実施形態に係るコンテンツ配信サーバへ送信する。このコンテンツ配信サーバは、(条件付きで)この要求に応じて仕様データを変更し、変更後の仕様データを配信する。故に、これら教育端末およびコンテンツ配信サーバによれば、生徒、教師または遠隔教育システムの管理者は、教育コンテンツに対して、その収録中または収録後に生じた事象、例えば生徒のニーズや反応、世間の流行、プロモーションなど、に合わせた手直しをし、その興趣性を高めることができる。すなわち、生徒の受講意欲を促進することが可能となる。 As explained above, the educational terminal according to the first embodiment corresponds to a request to change at least a part of the specification data indicating the specifications of a plurality of objects arranged in a virtual space that constitutes educational content. The input data is acquired and transmitted to the content distribution server according to the present embodiment. This content distribution server modifies the specification data in response to this request (conditionally) and distributes the modified specification data. Therefore, with these educational terminals and content distribution servers, students, teachers, or administrators of distance education systems can monitor events that occur during or after recording educational content, such as students' needs and reactions, and public opinion. You can make changes to suit trends, promotions, etc. to make them more interesting. In other words, it is possible to encourage students' desire to take the course.

従来の収録済みの教育コンテンツは、生徒から単なる録画番組と同視されてしまうことがある。この場合に、生徒にとって、かかる教育用コンテンツの視聴はビデオ再生やテレビ放送で教育を受けるのと何ら違いがないため、臨場感、緊迫感、参加意識、および学習意欲が沸きにくい。他方、本実施形態によれば、例えば、教育コンテンツを視聴した生徒の答案や成績表が教室に貼られたり、仮想空間の教室内で授業を受講する生徒アバターの人数が増えたり、教師のアバターを生徒の知らないキャラクターではなく生徒が親しみを持てるアバターに変更可能であったり、教室内に居る他の生徒と教師との質疑応答などのやり取りを視聴可能であったりする。故に、この実施形態によれば、収録中の教育コンテンツはもとより収録済みの教育コンテンツを配信する場合であっても、生徒はあたかも生の授業に参加しているかのような感覚を得ることができ、臨場感、緊迫感、参加意識、および学習意欲が沸きやすい、という格別な効果がある。 Traditional pre-recorded educational content may be viewed by students as simply a recorded program. In this case, for students, viewing such educational content is no different from receiving education through video playback or television broadcasting, so it is difficult for students to feel a sense of realism, urgency, sense of participation, and desire to learn. On the other hand, according to the present embodiment, for example, answers and report cards of students who have viewed educational content may be posted in the classroom, the number of student avatars taking classes in a virtual classroom may increase, and teacher avatars may be displayed. It is possible to change the character to an avatar that students can relate to instead of a character they do not know, and it is also possible to watch interactions such as question-and-answer sessions between other students in the classroom and the teacher. Therefore, according to this embodiment, even when distributing not only educational content that is being recorded but also already recorded educational content, students can feel as if they are participating in a live class. It has the special effect of creating a sense of realism, a sense of urgency, a sense of participation, and a desire to learn.

(第2の実施形態)
前述の第1の実施形態では、教育コンテンツの手直しを可能とすることで当該教育コンテンツの興趣性を高めている。他方、教育コンテンツの一部、例えば教材オブジェクトの仕様データおよびモーションデータ、を流用することで、同テーマの新たな教育コンテンツを低コストに作成することが可能である。
(Second embodiment)
In the first embodiment described above, the interest of the educational content is increased by making it possible to modify the educational content. On the other hand, by reusing a part of the educational content, for example, the specification data and motion data of the teaching material object, it is possible to create new educational content on the same theme at low cost.

図9に例示されるように、第2の実施形態に係るコンテンツ作成装置50は、入出力I/F 501と、プロセッサ510と、メモリ520とを含む。 As illustrated in FIG. 9, the content creation device 50 according to the second embodiment includes an input/output I/F 501, a processor 510, and a memory 520.

入出力I/F 501は、プロセッサ510と外部装置とのデータの入出力に使用するインタフェースの端子(ポート)である。入出力I/F 501は、例えば、タッチスクリーン、キーボード、マウス、テンキー、マイクロフォン、動き検出装置、などの入力装置とプロセッサ510との間のデータのやり取りに使用され得る。同様に、入出力I/F 501は、例えば、ディスプレイ(タッチスクリーンを含み得る)、スピーカなどの出力装置とプロセッサ510との間のデータのやり取りに使用され得る。 The input/output I/F 501 is an interface terminal (port) used for data input/output between the processor 510 and an external device. The input/output I/F 501 may be used for exchanging data between the processor 510 and an input device such as a touch screen, keyboard, mouse, numeric keypad, microphone, motion detection device, or the like. Similarly, the input/output I/F 501 may be used to exchange data between the processor 510 and an output device such as a display (which may include a touch screen) or a speaker.

例えば、入出力I/F 501は、再生された参照用コンテンツをプロセッサ510から受け取り、これらをディスプレイ(およびスピーカ)に出力する。また、入出力I/F 501は、図示されない動き検出装置から、上記参照用コンテンツの再生中のユーザの動きに基づくモーションデータを受け取り、これをプロセッサ510へ送る。入出力I/F 501は、図示されないマイクロフォンから、上記参照用コンテンツの再生中のユーザの発声に基づく音声データを受け取り、これをプロセッサ510へ送る。 For example, the input/output I/F 501 receives reproduced reference content from the processor 510 and outputs them to the display (and speaker). In addition, the input/output I/F 501 receives motion data based on the user's movement during reproduction of the reference content from a motion detection device (not shown), and sends this to the processor 510. The input/output I/F 501 receives audio data based on the user's utterance during reproduction of the reference content from a microphone (not shown), and sends it to the processor 510.

プロセッサ510は、典型的にはCPUおよび/またはGPUであるが、マイコン、FPGA、DSP、またはその他の汎用または専用のプロセッサなどであってもよい。 Processor 510 is typically a CPU and/or GPU, but may also be a microcomputer, FPGA, DSP, or other general-purpose or dedicated processor.

メモリ520は、プロセッサ510が各処理を実現するために当該プロセッサ510によって実行されるプログラム、例えば、OS、ファームウェア、コンテンツ作成アプリケーション、遠隔教育アプリケーション、など、および当該プロセッサ510によって使用されるデータ、例えば、素材データ、などを一時的に格納するメモリを含んでいる。メモリは、かかるプログラム/データが展開されるワークエリアを有するRAMを含み得る。 The memory 520 stores programs executed by the processor 510 to implement each process, such as an OS, firmware, a content creation application, a distance education application, etc., and data used by the processor 510, such as , material data, etc., is included. The memory may include RAM having a work area in which such programs/data are deployed.

プロセッサ510は、メモリ520に保存されたプログラムを実行することで、図9のレンダラー511、コンテンツ再生部512、入力データ取得部513、および素材データ生成部514として機能し得る。また、メモリ520は、素材データ記憶部521を含み得る。 The processor 510 can function as the renderer 511, the content playback section 512, the input data acquisition section 513, and the material data generation section 514 in FIG. 9 by executing a program stored in the memory 520. Furthermore, the memory 520 may include a material data storage section 521.

レンダラー511は、素材データ記憶部521に保存された素材データのうち、授業内容の提示に関わるオブジェクト、例えば教材オブジェクト、の仕様を示す仕様データおよびこのオブジェクトの動きを示すモーションデータを読み出す。ここで、このオブジェクトの仕様データおよびモーションデータは、例えばベースとなる既存の教育コンテンツに関わる素材データの一部であってもよいし、かかるベースとなる既存の教育コンテンツが存在しない場合であっても複数の同テーマの教育コンテンツ間で流用するために作成されてもよい。なお、参照用コンテンツは予めレンダリングされていてもよく、この場合にコンテンツ作成装置50はレンダラー511を必要としない。 The renderer 511 reads, from among the material data stored in the material data storage section 521, specification data indicating the specifications of an object related to presentation of lesson content, such as a teaching material object, and motion data indicating the movement of this object. Here, the specification data and motion data of this object may be, for example, part of the material data related to the existing educational content that serves as the base, or even if such existing educational content that serves as the base does not exist. It may also be created to be used among multiple educational contents on the same theme. Note that the reference content may be rendered in advance, and in this case, the content creation device 50 does not need the renderer 511.

そして、レンダラー511は、これら仕様データおよびモーションデータに基づいて、少なくとも授業内容の提示に関わるオブジェクトの外観、動き、などを再現し、これを基準となる視点(仮想カメラ)から撮影した参照用コンテンツ(参照用動画データと呼ぶこともできる)を生成する。この参照用コンテンツは、流用する授業内容の展開をユーザ(典型的には教師)がリアルタイムに把握するための台本に相当する。ユーザは、この参照用コンテンツを確認しながら、身振り手振りを交えて授業を行うことになる。レンダラー511は、生成した参照用コンテンツをコンテンツ再生部512へ送る。 Based on these specification data and motion data, the renderer 511 reproduces at least the appearance, movement, etc. of objects related to the presentation of lesson content, and uses this as reference content photographed from a reference viewpoint (virtual camera). (which can also be called reference video data) is generated. This reference content corresponds to a script that allows a user (typically a teacher) to grasp the development of the lesson content to be used in real time. The user will teach the lesson using gestures while checking this reference content. The renderer 511 sends the generated reference content to the content playback unit 512.

コンテンツ再生部512は、レンダラー511から参照用コンテンツを受け取る。そして、コンテンツ再生部512は、参照用コンテンツを再生し、これを入出力I/F 501を介して出力装置に出力させる。なお、参照用コンテンツは、音声を含んでいてもよい。この場合に、コンテンツ再生部512は、素材データ記憶部521に保存された(授業)音声データを読み出してもよい。また、参照用コンテンツは、ベースとなる既存の教育コンテンツそのものであってもよい。 The content reproduction unit 512 receives reference content from the renderer 511. The content reproduction unit 512 then reproduces the reference content and outputs it to the output device via the input/output I/F 501. Note that the reference content may include audio. In this case, the content playback unit 512 may read the (lesson) audio data stored in the material data storage unit 521. Furthermore, the reference content may be the existing educational content itself that serves as the base.

入力データ取得部513は、入出力I/F 501から入力データを取得し、この少なくとも一部を素材データ生成部514へ送る。入力データ取得部513は、モーションデータおよび動きデータに相当する入力データを素材データ生成部514へ送る。 The input data acquisition unit 513 acquires input data from the input/output I/F 501 and sends at least part of this to the material data generation unit 514. The input data acquisition unit 513 sends motion data and input data corresponding to the motion data to the material data generation unit 514.

素材データ生成部514は、入力データ取得部513からモーションデータおよび音声データを受け取り、これらに基づいて作成中の新たな教育コンテンツの素材データを生成する。具体的には、素材データ生成部514は、モーションデータおよび音声データに、その生成、入力または受け取り時における参照用コンテンツの再生時間を付与する。そして、素材データ生成部514は、これらのモーションデータおよび音声データを、この新たな教育コンテンツの識別子に関連付けて素材データ記憶部521に保存する。 The material data generation unit 514 receives motion data and audio data from the input data acquisition unit 513, and generates material data for new educational content being created based on these data. Specifically, the material data generation unit 514 assigns the playback time of the reference content at the time of generation, input, or reception to the motion data and audio data. Then, the material data generation section 514 stores these motion data and audio data in the material data storage section 521 in association with the identifier of this new educational content.

さらに、素材データ生成部514は、ユーザのアバターの仕様を示す仕様データ、および参照用コンテンツの元となる素材データ(例えば、教材オブジェクトの仕様データおよびモーションデータ)を、作成中の新たな教育コンテンツの識別子に関連付けて素材データ記憶部521に保存する。なお、ユーザのアバターの仕様を示す仕様データは、例えば、当該ユーザ自身の入力に基づいて定められてもよいし、遠隔教育システムの管理者によって指定されてもよい。 Furthermore, the material data generation unit 514 generates specification data indicating the specifications of the user's avatar and material data (for example, specification data and motion data of a teaching material object) that is the source of the reference content for the new educational content being created. is stored in the material data storage unit 521 in association with the identifier. Note that the specification data indicating the specifications of the user's avatar may be determined based on the user's own input, or may be designated by the administrator of the distance education system, for example.

要するに、素材データ生成部514は、参照用コンテンツの元となる素材データ、すなわち流用された素材データと、参照用コンテンツの再生中のユーザの動きおよび音声を示すモーションデータおよび音声データと、ユーザのアバターの仕様を示す仕様データとを、新たな教育コンテンツの素材データとして素材データ記憶部521に保存することになる。このように作成された教育コンテンツでは、授業内容の展開は参照用コンテンツと同じであるが、教師は教師アバターの動きや授業音声を通じて自らの個性を発揮することができる。 In short, the material data generation unit 514 generates material data that is the source of the reference content, that is, diverted material data, motion data and audio data indicating the user's movements and sounds during playback of the reference content, and the user's Specification data indicating the specifications of the avatar are stored in the material data storage unit 521 as material data of new educational content. In the educational content created in this way, the development of the lesson content is the same as the reference content, but the teacher is able to express his or her individuality through the movements of the teacher avatar and the sound of the lesson.

素材データ記憶部521は、素材データを保存する。ここで、素材データは、オブジェクトの仕様データおよびモーションデータ、ならびに授業音声データを含む。素材データ記憶部521は、ある教育コンテンツを構成する仮想空間を再現するための素材データを例えば当該教育コンテンツを識別する識別子に関連付けて保存し得る。また、素材データ記憶部521は、各オブジェクトの仕様データおよびモーションデータを当該オブジェクトを識別する識別子に関連付けて保存し得る。 The material data storage unit 521 stores material data. Here, the material data includes object specification data and motion data, and lesson audio data. The material data storage unit 521 can store material data for reproducing a virtual space constituting a certain educational content in association with, for example, an identifier that identifies the educational content. Further, the material data storage unit 521 can store the specification data and motion data of each object in association with an identifier that identifies the object.

具体的には、新たな教育コンテンツが作成される前は、素材データ記憶部521には、少なくとも参照用コンテンツの元となる仕様データおよびモーションデータが保存される。これらの仕様データおよびモーションデータは、レンダラー511によって読み出される。そして、この教育コンテンツの作成中に、素材データ記憶部521には、ユーザの音声データおよびモーションデータが逐次書き込まれる。ユーザの音声データはこの教育コンテンツの授業音声データとして用いられ、ユーザのモーションデータはこの教育コンテンツの教師アバターのモーションデータとして用いられる。 Specifically, before new educational content is created, the material data storage unit 521 stores at least the specification data and motion data that are the basis of the reference content. These specification data and motion data are read by the renderer 511. During the creation of this educational content, the user's voice data and motion data are sequentially written into the material data storage unit 521. The user's voice data is used as the lesson voice data of this educational content, and the user's motion data is used as the motion data of the teacher avatar of this educational content.

以下、図10を用いてコンテンツ作成装置50の動作を説明する。図10は、コンテンツ作成装置50がある参照用コンテンツを流用して新たな教育コンテンツの作成を開始してから終了するまでの当該コンテンツ作成装置50の動作例を表す。 The operation of the content creation device 50 will be described below using FIG. 10. FIG. 10 shows an example of the operation of the content creation device 50 from when the content creation device 50 starts creating new educational content by reusing a certain reference content until it ends.

図10の動作が開始すると処理はステップS601へ進む。ステップS601において、レンダラー511は、素材データ記憶部521から授業内容の提示に関わるオブジェクトの仕様データおよびモーションデータを読み出し、これらに基づいて参照用コンテンツをレンダリングする。 When the operation in FIG. 10 starts, the process advances to step S601. In step S601, the renderer 511 reads specification data and motion data of objects related to the presentation of lesson content from the material data storage unit 521, and renders reference content based on these data.

ステップS601において読み出される素材データは、例えば、コンテンツ作成装置50がこれから再生する参照用コンテンツの所定期間分の再生時間に関連付けられるモーションデータを含み得る。さらに、この素材データは、仕様データを含んでもよい。 The material data read in step S601 may include, for example, motion data associated with a predetermined period of playback time of the reference content that the content creation device 50 will play from now on. Furthermore, this material data may include specification data.

そして、コンテンツ再生部512は、ステップS601においてレンダリングされた参照用コンテンツを再生する(ステップS602)。 The content playback unit 512 then plays back the reference content rendered in step S601 (step S602).

他方、入力データ取得部513は、参照用コンテンツの再生中のユーザの動きおよび発声に基づくモーションデータおよび音声データを取得する(ステップS603)。そして、素材データ生成部514は、ステップS603において取得されたモーションデータおよび音声データに基づいて新たな教育コンテンツの素材データを生成し、素材データ記憶部521に保存する(ステップS604)。 On the other hand, the input data acquisition unit 513 acquires motion data and audio data based on the user's movements and utterances while the reference content is being reproduced (step S603). Then, the material data generation unit 514 generates new educational content material data based on the motion data and audio data acquired in step S603, and stores it in the material data storage unit 521 (step S604).

なお、図10の例では、ステップS603およびステップS604は、ステップS602の後に実行されるように描かれているが、これは必須ではない。すなわち、パイプライン式に実行され得る参照用コンテンツのレンダリング~再生(ステップS601乃至ステップS602)とは独立に、取得されたモーションデータおよび音声データに基づいて新たな教育コンテンツの素材データが逐次追加されてよい。 Note that in the example of FIG. 10, step S603 and step S604 are depicted as being executed after step S602, but this is not essential. That is, material data of new educational content is sequentially added based on the acquired motion data and audio data, independently of the rendering and playback of the reference content (steps S601 and S602), which may be executed in a pipeline manner. It's fine.

以上説明したように、第2の実施形態に係るコンテンツ作成装置は、流用する授業内容の展開を教師がリアルタイムに参照するための台本に相当する参照用コンテンツを再生し、その間の教師の動きおよび発声に基づいて新たな教育コンテンツの素材データを生成する。故に、このコンテンツ作成装置によれば、授業内容の展開は同じであるが、教師アバターの動きや授業音声データが異なる同テーマの教育コンテンツを容易に提供することが可能となる。故に、生徒は、自らの受講意欲が掻き立てられる教育コンテンツを選択して視聴できる。 As explained above, the content creation device according to the second embodiment reproduces the reference content corresponding to a script for the teacher to refer to the development of the lesson content to be reused in real time, and Generate material data for new educational content based on utterances. Therefore, according to this content creation device, it is possible to easily provide educational content on the same theme, in which the development of the lesson content is the same, but the movements of the teacher avatar and the lesson audio data are different. Therefore, students can select and view educational content that stimulates their desire to take the course.

なお、生徒は自らの受講する教育コンテンツを選定するにあたって、当該コンテンツから受ける感覚的要素、例えば視覚的要素や聴覚的要素を重視することがあり得る。故に、授業内容の展開が同じであっても、教師の見た目、動きや話し方の異なる教育コンテンツは、その人気も全く異なる可能性がある。故に、本実施形態のように、授業内容の展開を流用して、同テーマの教育コンテンツを容易に提供可能とすることには意義がある。 Note that when students select educational content for themselves to attend, they may place emphasis on sensory elements, such as visual and auditory elements, that they receive from the content. Therefore, even if the lesson content is the same, the popularity of educational content with different teacher appearances, movements, and speaking styles may be completely different. Therefore, as in this embodiment, it is meaningful to utilize the development of class content and easily provide educational content on the same theme.

このコンテンツ作成装置は、新たな教育コンテンツの作成中に当該教育コンテンツをコンテンツ配信サーバにアップロードしてもよい。これにより、新たな教育コンテンツをリアルタイムに配信することができる。他方、このコンテンツ作成装置は、新たな教育コンテンツを作成し終えてから当該教育コンテンツをコンテンツ配信サーバにアップロードしてもよい。或いは、このコンテンツ作成装置は、コンテンツ配信サーバに組み込まれてもよい。 This content creation device may upload new educational content to the content distribution server while creating the new educational content. This allows new educational content to be distributed in real time. On the other hand, the content creation device may upload the new educational content to the content distribution server after completing the creation of the new educational content. Alternatively, this content creation device may be incorporated into a content distribution server.

なお、第2の実施形態は、前述の第1の実施形態または後述する第3の実施形態と組み合わせることもできる。すなわち、本実施形態に係るコンテンツ作成装置によって作成された教育コンテンツに関して、第1の実施形態または第3の実施形態において説明されるような仕様データの変更を可能としてもよい。 Note that the second embodiment can also be combined with the first embodiment described above or the third embodiment described below. That is, regarding the educational content created by the content creation device according to the present embodiment, it may be possible to change the specification data as described in the first embodiment or the third embodiment.

(第3の実施形態)
前述の第1の実施形態では、仕様データを変更するための要求に応じて、コンテンツ配信サーバ20の素材データ記憶部521に保存されている仕様データが変更される。すなわち、仕様データの変更は、同一の教育コンテンツを視聴する生徒全員に影響する。従って、仕様データの変更をこのようにグローバルに反映する場合には、当該変更を許容するための条件を厳格化せざるを得ない可能性がある。
(Third embodiment)
In the first embodiment described above, the specification data stored in the material data storage unit 521 of the content distribution server 20 is changed in response to a request to change the specification data. In other words, changes in specification data affect all students viewing the same educational content. Therefore, when a change in specification data is reflected globally in this way, there is a possibility that the conditions for allowing the change must be made stricter.

他方、仕様データの変更を要求した生徒に限って当該変更を反映した教育コンテンツを視聴させることも可能である。仕様データの変更をこのようにローカルに反映すれば、その影響力は限定的であるので、当該変更を許容するための条件を緩和しやすい。これにより、生徒は、自らの好みに合わせてアバターを含むオブジェクトを自由にカスタマイズして授業に臨むことができる。 On the other hand, it is also possible to allow only students who have requested a change in specification data to view educational content that reflects the change. If a change in specification data is reflected locally in this way, its influence is limited, so it is easy to relax the conditions for allowing the change. This allows students to freely customize objects, including avatars, according to their own preferences before attending classes.

第3の実施形態に係る教育端末70は、図11に例示されるように、通信I/F 701と、入出力I/F 702と、プロセッサ710と、メモリ720とを含む。 The educational terminal 70 according to the third embodiment includes a communication I/F 701, an input/output I/F 702, a processor 710, and a memory 720, as illustrated in FIG.

通信I/F 701、入出力I/F 702、プロセッサ710およびメモリ720は、図1の通信I/F 101、入出力I/F 102、プロセッサ110およびメモリ120とそれぞれ同一または類似のハードウェアであり得る。 Communication I/F 701, input/output I/F 702, processor 710, and memory 720 are the same or similar hardware as communication I/F 101, input/output I/F 102, processor 110, and memory 120 in FIG. 1, respectively. could be.

プロセッサ710は、メモリ720に保存されたプログラムを実行することで、図11の受信データ取得部711、レンダラー712、コンテンツ再生部713、入力データ取得部714、および素材データ変更部715として機能し得る。また、メモリ720は、素材データ記憶部721を含み得る。 The processor 710 can function as the received data acquisition unit 711, renderer 712, content playback unit 713, input data acquisition unit 714, and material data modification unit 715 in FIG. 11 by executing the program stored in the memory 720. . Furthermore, the memory 720 may include a material data storage section 721.

ここで、受信データ取得部711、レンダラー712、およびコンテンツ再生部713は、図1の受信データ取得部111、レンダラー112、およびコンテンツ再生部113とそれぞれ同一または類似であり得る。 Here, the received data acquisition unit 711, the renderer 712, and the content playback unit 713 may be the same or similar to the received data acquisition unit 111, the renderer 112, and the content playback unit 113 of FIG. 1, respectively.

入力データ取得部714は、入出力I/F 702から入力データを取得し、この少なくとも一部を素材データ変更部715へ送る。入力データ取得部714は、仕様データを変更するための要求に相当する入力データを素材データ変更部715へ送る。また、入力データ取得部714は、例えば、教育コンテンツの再生制御に関する要求、を例えばレンダラー712および/またはコンテンツ再生部713へ送り得る。その他、入力データ取得部714は、コンテンツ配信サーバまたはコメントサーバへの報告対象となる入力データ、例えば音声データまたはコメントデータを図示されない入力データ報告部へ送ってもよい。この場合に、入力データ報告部は、かかるデータを通信I/F 701を介してコンテンツ配信サーバまたはコメントサーバに報告してもよい。 The input data acquisition unit 714 acquires input data from the input/output I/F 702 and sends at least a portion of the input data to the material data modification unit 715. The input data acquisition unit 714 sends input data corresponding to a request to change the specification data to the material data change unit 715. Further, the input data acquisition unit 714 can send, for example, a request regarding playback control of educational content to the renderer 712 and/or the content playback unit 713, for example. In addition, the input data acquisition unit 714 may send input data to be reported to the content distribution server or comment server, such as audio data or comment data, to an input data reporting unit (not shown). In this case, the input data reporting unit may report such data to the content distribution server or comment server via the communication I/F 701.

ここで、第3の実施形態に係るコンテンツ配信サーバは、教育端末70から仕様データを変更するための要求を受信しないので、前述のコンテンツ配信サーバ20から、当該要求に関わる機能部、例えば素材データ変更部212、を削除した構成であり得る。 Here, since the content distribution server according to the third embodiment does not receive a request to change the specification data from the educational terminal 70, the content distribution server according to the third embodiment does not receive a request to change the specification data from the above-mentioned content distribution server 20. It may be a configuration in which the changing unit 212 is deleted.

素材データ変更部715は、入力データ取得部714から仕様データを変更するための要求に相当する入力データを受け取り、これに応じて素材データ記憶部721に保存されている仕様データを変更する。例えば、素材データ変更部715は、特定のオブジェクトの仕様データの差し替えを要求された場合には、素材データ記憶部721において対象となる仕様データを要求に含まれる仕様データに書き換え得る。また、素材データ変更部715は、新たなオブジェクトの仕様データの追加を要求された場合には、素材データ変更部715は要求に含まれる仕様データを、対象となる教育コンテンツの識別子に関連付けて素材データ記憶部721に書き込み得る。さらに、素材データ変更部715は、特定のオブジェクトの仕様データの削除を要求された場合には、素材データ変更部715は対象となるオブジェクトの仕様データを素材データ記憶部721から削除し得る。 The material data changing section 715 receives input data corresponding to a request to change specification data from the input data obtaining section 714, and changes the specification data stored in the material data storage section 721 in accordance with the input data. For example, when the material data changing section 715 is requested to replace the specification data of a specific object, it can rewrite the target specification data in the material data storage section 721 with the specification data included in the request. Further, when the material data changing unit 715 is requested to add specification data of a new object, the material data changing unit 715 associates the specification data included in the request with the identifier of the target educational content and It can be written to the data storage section 721. Further, when the material data changing unit 715 is requested to delete the specification data of a specific object, the material data changing unit 715 can delete the specification data of the target object from the material data storage unit 721.

素材データ記憶部721は、素材データを保存する。素材データ記憶部721は、ある教育コンテンツを構成する仮想空間を再現するための素材データを例えば当該教育コンテンツを識別する識別子に関連付けて保存し得る。また、素材データ記憶部721は、各オブジェクトの仕様データおよびモーションデータを当該オブジェクトを識別する識別子に関連付けて保存し得る。 The material data storage unit 721 stores material data. The material data storage unit 721 can store material data for reproducing a virtual space constituting a certain educational content in association with, for example, an identifier that identifies the educational content. Further, the material data storage unit 721 can store the specification data and motion data of each object in association with an identifier that identifies the object.

素材データは、受信データ取得部711によって素材データ記憶部721に書き込まれる。また、素材データは、素材データ変更部715によって書き換えられ得る。素材データ記憶部721に保存された素材データのうちオブジェクトの仕様データおよびモーションデータは、レンダラー712によって読み出される。素材データ記憶部721に保存された素材データのうち授業音声データは、コンテンツ再生部713によって読み出される。 The material data is written into the material data storage section 721 by the received data acquisition section 711. Further, the material data can be rewritten by the material data changing unit 715. Among the material data stored in the material data storage section 721, object specification data and motion data are read out by the renderer 712. Of the material data stored in the material data storage section 721, the lesson audio data is read out by the content reproduction section 713.

素材データ変更部715によるオブジェクトの仕様データの変更は、当該素材データ変更部715を含む教育端末70によって再生される教育コンテンツに限って適用される。他方、他の教育端末70は、コンテンツ配信サーバから配信される素材データに基づく教育コンテンツ、または当該素材データを当該教育端末70内部で変更した素材データに基づく教育コンテンツを再生できる。 The modification of the object specification data by the material data modification section 715 is applied only to the educational content played by the educational terminal 70 that includes the material data modification section 715. On the other hand, other educational terminals 70 can reproduce educational content based on material data distributed from the content distribution server, or educational content based on material data that is modified within the educational terminal 70.

変更後の仕様データは、コンテンツ配信サーバから受信されるモーションデータとともに、素材データ記憶部721に保存される。なお、ここで受信されるモーションデータは、仕様データの変更の有無に関わらず同一であり得る。素材データ記憶部721に保存された変更後の仕様データおよびモーションデータは、レンダラー712によって読み出され、授業動画データとしてレンダリングされる。これによって、生徒は、自らの教育端末70によって再生される教育コンテンツにおいて自由に、例えば、教師または生徒のアバターの外観および/またはボイスキャラクターを変更したり、新たなオブジェクト(アバターを含み得る)を追加したり、オブジェクトの発生可能な効果音および/または音楽を変更したりすることができる。 The changed specification data is stored in the material data storage unit 721 together with the motion data received from the content distribution server. Note that the motion data received here may be the same regardless of whether or not the specification data has been changed. The modified specification data and motion data stored in the material data storage section 721 are read out by the renderer 712 and rendered as lesson video data. This allows students to freely change, for example, the appearance and/or voice character of their teacher's or student's avatars, or add new objects (which may include avatars) in the educational content played by their own educational terminals 70. You can add and/or change the sound effects and/or music that an object can generate.

以下、図12を用いて教育端末70の動作を説明する。図12は、教育端末70のユーザがある教育コンテンツの視聴を開始してから終了するまでの当該教育端末70の動作例を表す。 The operation of the educational terminal 70 will be described below using FIG. 12. FIG. 12 shows an example of the operation of the educational terminal 70 from when the user of the educational terminal 70 starts viewing certain educational content until the user finishes viewing the educational content.

図12の動作が開始すると処理はステップS801へ進む。ステップS801において、受信データ取得部711は、通信I/F 701によって受信された素材データを取得し、素材データ記憶部721に保存する。 When the operation in FIG. 12 starts, the process advances to step S801. In step S<b>801 , the received data acquisition unit 711 acquires the material data received by the communication I/F 701 and stores it in the material data storage unit 721 .

ステップS801において受信される素材データは、例えば、教育端末70がこれから再生する教育コンテンツの所定期間分の再生時間に関連付けられるモーションデータおよび授業音声データを含み得る。さらに、この素材データは、初期の仕様データを含んでもよい。 The material data received in step S801 may include, for example, motion data and lesson audio data associated with a predetermined period of playback time of the educational content that the educational terminal 70 will play from now on. Furthermore, this material data may include initial specification data.

次に、レンダラー712は、ステップS801において受信された素材データのうちの仕様データおよびモーションデータに基づいて、授業動画データをレンダリングする(ステップS802)。 Next, the renderer 712 renders lesson video data based on the specification data and motion data of the material data received in step S801 (step S802).

そして、コンテンツ再生部713は、ステップS802においてレンダリングされた授業動画データを、ステップS801において受信された素材データのうちの授業音声データとともに再生する(ステップS803)。 The content reproduction unit 713 then reproduces the lesson video data rendered in step S802 together with the lesson audio data of the material data received in step S801 (step S803).

他方、入力データ取得部714が仕様データの変更を変更するための要求に相当する入力データを入出力I/F 702を介して取得すると、処理はステップS805へ進む(ステップS804)。ステップS805において、素材データ変更部715は、ステップS804において取得された要求に応じて、素材データ記憶部721に保存されている仕様データを変更する。そして、ステップS805以後に実行されるステップS802において、レンダラー712は、変更後の仕様データを含む素材データに基づいて授業動画データをレンダリングすることになる。 On the other hand, when the input data acquisition unit 714 acquires input data corresponding to a request for changing the specification data via the input/output I/F 702, the process advances to step S805 (step S804). In step S805, the material data changing unit 715 changes the specification data stored in the material data storage unit 721 in response to the request acquired in step S804. Then, in step S802 executed after step S805, the renderer 712 renders the lesson video data based on the material data including the changed specification data.

なお、図12の例では、ステップS804およびステップS805は、ステップS803の後に実行されるように描かれているが、これは必須ではない。すなわち、パイプライン式に実行され得る素材データの受信~教育コンテンツの再生(ステップS801乃至ステップS803)とは独立に、仕様データを変更するための要求の取得をトリガとして当該要求に応じた仕様データの変更が行われてよい。 Note that in the example of FIG. 12, steps S804 and S805 are depicted as being executed after step S803, but this is not essential. That is, independent of the process from receiving material data to playing educational content (steps S801 to S803), which can be executed in a pipeline manner, acquisition of a request to change specification data is a trigger, and specification data corresponding to the request is changed. changes may be made.

以上説明したように、第3の実施形態に係る教育端末は、教育コンテンツを構成する仮想空間内に配置される複数のオブジェクトの仕様を示す仕様データの少なくとも一部を変更するための要求に相当する入力データを取得し、これに応じて当該教育端末に保存されている仕様データを変更する。故に、この教育端末によれば、生徒は、教育コンテンツを自らの好みに合わせて自由に手直しをし、その興趣性を高めこることができる。すなわち、生徒は、自らの受講意欲が高まるように教育コンテンツをカスタマイズして視聴することが可能となる。 As explained above, the educational terminal according to the third embodiment corresponds to a request to change at least a part of the specification data indicating the specifications of a plurality of objects arranged in a virtual space that constitutes educational content. The specification data stored in the educational terminal is changed accordingly. Therefore, according to this educational terminal, students can freely modify the educational content to suit their own tastes and increase the interest of the content. In other words, students can customize and view educational content in a way that increases their desire to attend the course.

なお、第1の実施形態と第3の実施形態とを組み合わせることも可能である。一例として、特定のオブジェクトの仕様データを差し替えまたは削除する要求はローカルに反映され、新たなオブジェクトの仕様データを追加する要求はグローバルに反映されてもよい。 Note that it is also possible to combine the first embodiment and the third embodiment. As an example, a request to replace or delete specification data for a particular object may be reflected locally, and a request to add specification data for a new object may be reflected globally.

(変形例)
なお、前述の第1の実施形態および第3の実施形態では、教育端末が授業動画データのレンダリングを行っている。しかしながら、これは例示に過ぎない。コンテンツ配信サーバが授業動画データのレンダリングを行ってもよい。この場合に、教育端末は、仕様データおよびモーションデータの代わりに授業動画データをコンテンツ配信サーバから受信し、保存することになるので、レンダラーを必要としない。他方、コンテンツ配信サーバは、仕様データおよびモーションデータの代わりに授業動画データを教育端末へ送信するので、レンダラーを必要とする。
(Modified example)
Note that in the first and third embodiments described above, the educational terminal renders the lesson video data. However, this is only an example. The content distribution server may render the lesson video data. In this case, the educational terminal receives lesson video data from the content distribution server and stores it instead of the specification data and motion data, so a renderer is not required. On the other hand, the content distribution server requires a renderer because it transmits lesson video data to the educational terminal instead of specification data and motion data.

上述の実施形態は、本発明の概念の理解を助けるための具体例を示しているに過ぎず、本発明の範囲を限定することを意図されていない。実施形態は、本発明の要旨を逸脱しない範囲で、様々な構成要素の付加、削除または転換をすることができる。 The embodiments described above merely show specific examples to help understand the concept of the present invention, and are not intended to limit the scope of the present invention. Various components can be added, deleted, or converted to the embodiments without departing from the gist of the present invention.

上述の実施形態では、いくつかの機能部を説明したが、これらは各機能部の実装の一例に過ぎない。例えば、1つの装置に実装されると説明された複数の機能部が複数の別々の装置に亘って実装されることもあり得るし、逆に複数の別々の装置に亘って実装されると説明された機能部が1つの装置に実装されることもあり得る。 Although several functional units have been described in the above-described embodiments, these are only examples of implementation of each functional unit. For example, multiple functional units described as being implemented in one device may be implemented across multiple separate devices, and conversely, multiple functional units described as being implemented across multiple separate devices may be implemented across multiple separate devices. It is also possible that the functional units described above are implemented in one device.

上記各実施形態において説明された種々の機能部は、回路を用いることで実現されてもよい。回路は、特定の機能を実現する専用回路であってもよいし、プロセッサのような汎用回路であってもよい。 The various functional units described in each of the above embodiments may be implemented using circuits. The circuit may be a dedicated circuit that implements a specific function, or may be a general-purpose circuit such as a processor.

上記各実施形態の処理の少なくとも一部は、例えば汎用のコンピュータに搭載されたプロセッサを基本ハードウェアとして用いることでも実現可能である。上記処理を実現するプログラムは、コンピュータで読み取り可能な記録媒体に格納して提供されてもよい。プログラムは、インストール可能な形式のファイルまたは実行可能な形式のファイルとして記録媒体に記憶される。記録媒体としては、磁気ディスク、光ディスク(CD-ROM、CD-R、DVD等)、光磁気ディスク(MO等)、半導体メモリなどである。記録媒体は、プログラムを記憶でき、かつ、コンピュータが読み取り可能であれば、何れであってもよい。また、上記処理を実現するプログラムを、インターネットなどのネットワークに接続されたコンピュータ(サーバ)上に格納し、ネットワーク経由でコンピュータ(クライアント)にダウンロードさせてもよい。 At least part of the processing in each of the embodiments described above can also be realized by using, for example, a processor installed in a general-purpose computer as the basic hardware. A program that implements the above processing may be provided while being stored in a computer-readable recording medium. The program is stored on a recording medium as an installable file or an executable file. Examples of recording media include magnetic disks, optical disks (CD-ROM, CD-R, DVD, etc.), magneto-optical disks (MO, etc.), semiconductor memories, and the like. The recording medium may be any medium as long as it can store the program and is readable by a computer. Further, a program for realizing the above processing may be stored on a computer (server) connected to a network such as the Internet, and may be downloaded to a computer (client) via the network.

10,70・・・教育端末
20・・・コンテンツ配信サーバ
31,33・・・教師アバター
32・・・黒板オブジェクト
34,35,36・・・生徒アバター
50・・・コンテンツ作成装置
101,201,701・・・通信I/F
102,501,702・・・入出力I/F
110,210,510・・・プロセッサ
111,211,711・・・受信データ取得部
112,511,712・・・レンダラー
113,512,713・・・コンテンツ再生部
114,513,714・・・入力データ取得部
115・・・入力データ報告部
120,220,520・・・メモリ
121,221,521・・・素材データ記憶部
212,715・・・素材データ変更部
213・・・素材データ配信部
514・・・素材データ生成部
10, 70... Educational terminal 20... Content distribution server 31, 33... Teacher avatar 32... Blackboard object 34, 35, 36... Student avatar 50... Content creation device 101, 201, 701...Communication I/F
102, 501, 702... Input/output I/F
110,210,510...Processor 111,211,711...Received data acquisition unit 112,511,712...Renderer 113,512,713...Content playback unit 114,513,714...Input Data acquisition section 115...Input data reporting section 120,220,520...Memory 121,221,521...Material data storage section 212,715...Material data changing section 213...Material data distribution section 514...Material data generation section

Claims (10)

コンピュータを、
所定のコンテンツを構成する仮想空間内に配置される複数のオブジェクトの仕様を示す第1の仕様データと、前記複数のオブジェクトの動きを示すモーションデータとを含む素材データを取得する手段、
前記第1の仕様データの少なくとも一部を変更するための要求を取得する手段、
前記要求に応じて、前記モーションデータを変更することなく、前記取得された前記第1の仕様データを、前記第1の仕様データとは異なる第2の仕様データに変更する手段、
として機能させ、
前記第1の仕様データの前記第2の仕様データへの変更は、当該変更を行うコンピュータに限って適用される、
プログラム。
computer,
means for acquiring material data including first specification data indicating specifications of a plurality of objects arranged in a virtual space constituting a predetermined content, and motion data indicating movements of the plurality of objects ;
means for obtaining a request to change at least a portion of the first specification data;
means for changing the acquired first specification data to second specification data different from the first specification data without changing the motion data in response to the request;
function as
The change of the first specification data to the second specification data is applied only to the computer making the change,
program.
前記所定のコンテンツは、遠隔授業用の教育コンテンツである、請求項1に記載のプログラム。 The program according to claim 1, wherein the predetermined content is educational content for remote classes. 前記要求は、特定のオブジェクトの仕様データの差し替え要求、新たなオブジェクトの仕様データの追加要求、又は、特定のオブジェクトの仕様データの削除要求のうちの少なくとも1つを含む、請求項1又は2に記載のプログラム。 3. The method according to claim 1 or 2, wherein the request includes at least one of a request to replace specification data of a specific object, a request to add specification data of a new object, or a request to delete specification data of a specific object. Programs listed. 前記第1の仕様データを変更する手段は、アバターの外観を変更する手段、ボイスキャラクターを変更する手段、新たなオブジェクトを追加する手段、又は、前記複数のオブジェクトが発生可能な効果音及び/又は音楽を変更する手段、のうちの少なくとも一つを含む、請求項1~3のいずれか一項に記載のプログラム。 The means for changing the first specification data includes means for changing the appearance of the avatar, means for changing the voice character, means for adding a new object, or sound effects and/or that can be generated by the plurality of objects. The program according to any one of claims 1 to 3, comprising at least one of: means for changing music. 前記素材データは、コンテンツ配信サーバから配信され、初期の仕様データを含む、請求項1~のいずれか一項に記載のプログラム。 5. The program according to claim 1 , wherein the material data is distributed from a content distribution server and includes initial specification data. 一又は複数の端末と、所定のコンテンツを提供可能なコンテンツ配信サーバとを備えるシステムであって、
前記コンテンツ配信サーバは、
提供された前記所定のコンテンツを構成する仮想空間内に配置される複数のオブジェクトの仕様を示す第1の仕様データと、前記複数のオブジェクトの動きを示すモーションデータとを含む素材データを保存する第1の素材データ記憶部と、
前記保存された前記第1の仕様データを含む素材データを、前記一又は複数の端末からの配信要求に応じて配信する素材データ配信部と、
を備え、
前記一又は複数の端末のうち少なくとも1つの端末は、
前記第1の素材データ記憶部から読み出された前記素材データを前記コンテンツ配信サーバから取得する受信データ取得部と、
前記素材データを保存する第2の素材データ記憶部と、
前記第1の仕様データの少なくとも一部を変更するための要求に応じて、前記モーションデータを変更することなく、前記第2の素材データ記憶部に保存された前記素材データに含まれる第1の仕様データを前記第1の仕様データとは異なる第2の仕様データに変更する素材データ変更部と、
を備え、
前記素材データ変更部による前記第1の仕様データの前記第2の仕様データへの変更は、当該変更を行う端末に限って適用される、
システム。
A system comprising one or more terminals and a content distribution server capable of providing predetermined content,
The content distribution server is
First specification data indicating specifications of a plurality of objects arranged in a virtual space constituting the provided predetermined content, and motion data indicating movements of the plurality of objects . 1 material data storage unit;
a material data distribution unit that distributes the material data including the stored first specification data in response to a distribution request from the one or more terminals;
Equipped with
At least one terminal among the one or more terminals,
a received data acquisition unit that acquires the material data read from the first material data storage unit from the content distribution server;
a second material data storage unit that stores the material data;
In response to a request to change at least a part of the first specification data, the first specification data included in the material data stored in the second material data storage section is changed without changing the motion data. a material data changing unit that changes the specification data to second specification data different from the first specification data;
Equipped with
The change of the first specification data to the second specification data by the material data change unit is applied only to the terminal making the change;
system.
前記一又は複数の端末のうち、前記少なくとも1つの端末以外の端末は、前記コンテンツ配信サーバから受信される前記素材データに基づいたコンテンツを再生する、請求項に記載のシステム。 The system according to claim 6 , wherein a terminal other than the at least one terminal among the one or more terminals reproduces content based on the material data received from the content distribution server. 所定のコンテンツを提供可能なコンテンツ配信サーバと通信可能な端末であって、
前記コンテンツ配信サーバは、前記所定のコンテンツを構成する仮想空間内に配置される複数のオブジェクトの仕様を示す第1の仕様データと、前記複数のオブジェクトの動きを示すモーションデータとを含む素材データを、前記端末からの配信要求に応じて配信するように構成され、
前記端末は、
前記素材データを前記コンテンツ配信サーバから取得する受信データ取得部と、
前記素材データを保存する第2の素材データ記憶部と、
前記第1の仕様データの少なくとも一部を変更するための要求に応じて、前記モーションデータを変更することなく、前記第2の素材データ記憶部に保存された前記素材データに含まれる第1の仕様データを、前記第1の仕様データとは異なる第2の仕様データに変更する素材データ変更部と、
を備え、
前記素材データ変更部による前記第1の仕様データの前記第2の仕様データへの変更は、当該変更を行う端末に限って適用される、
端末。
A terminal capable of communicating with a content distribution server capable of providing predetermined content,
The content distribution server transmits material data including first specification data indicating specifications of a plurality of objects arranged in a virtual space constituting the predetermined content , and motion data indicating movements of the plurality of objects. , configured to deliver in response to a delivery request from the terminal,
The terminal is
a received data acquisition unit that acquires the material data from the content distribution server;
a second material data storage unit that stores the material data;
In response to a request to change at least a part of the first specification data, the first specification data included in the material data stored in the second material data storage section is changed without changing the motion data. a material data changing unit that changes the specification data to second specification data different from the first specification data;
Equipped with
The change of the first specification data to the second specification data by the material data change unit is applied only to the terminal making the change;
terminal.
コンテンツを再生する装置が実行する方法であって、
前記装置が、
再生されるコンテンツを構成する仮想空間内に配置される複数のオブジェクトの仕様を示す第1の仕様データと、前記複数のオブジェクトの動きを示すモーションデータとを含む素材データを取得することと、
前記第1の仕様データの少なくとも一部を変更するための要求を取得することと、
前記要求に応じて、前記モーションデータを変更することなく、前記取得された前記第1の仕様データを、前記第1の仕様データとは異なる第2の仕様データに変更することと、を備え、
前記第1の仕様データの前記第2の仕様データへの変更は、当該再生されるコンテンツに限って適用される、
方法。
A method performed by a device that plays content, the method comprising:
The device is
obtaining material data including first specification data indicating specifications of a plurality of objects arranged in a virtual space constituting content to be played; and motion data indicating movements of the plurality of objects ;
Obtaining a request to change at least a portion of the first specification data;
In response to the request, changing the acquired first specification data to second specification data different from the first specification data without changing the motion data,
The change of the first specification data to the second specification data is applied only to the content to be played;
Method.
一又は複数の端末と、所定のコンテンツを提供可能なコンテンツ配信サーバを備えるシステムにおけるコンテンツ配信方法であって、
前記コンテンツ配信サーバは、
提供された前記所定のコンテンツを構成する仮想空間内に配置される複数のオブジェクトの仕様を示す第1の仕様データと、前記複数のオブジェクトの動きを示すモーションデータとを含む素材データを第1の素材データ記憶部に保存することと、
前記保存された前記第1の仕様データを含む素材データを、前記一又は複数の端末からの配信要求に応じて配信することと、を備え、
前記一又は複数の端末のうち少なくとも1つの端末は、
前記配信された素材データを受信することと、
前記受信された素材データを第2の素材データ記憶部に保存することと、
前記第1の仕様データの少なくとも一部を変更するための要求に応じて、前記モーションデータを変更することなく、前記第2の素材データ記憶部に保存された素材データに含まれる第1の仕様データを前記第1の仕様データとは異なる第2の仕様データに変更することと、を備え、
前記第1の仕様データの前記第2の仕様データへの変更は、当該変更を行う端末に限って適用される、
コンテンツ配信方法。
A content distribution method in a system comprising one or more terminals and a content distribution server capable of providing predetermined content,
The content distribution server is
First material data including first specification data indicating specifications of a plurality of objects arranged in a virtual space constituting the provided predetermined content and motion data indicating movements of the plurality of objects. Saving it in the material data storage unit,
distributing the material data including the stored first specification data in response to a distribution request from the one or more terminals;
At least one terminal among the one or more terminals,
receiving the distributed material data;
Storing the received material data in a second material data storage unit;
In response to a request to change at least a portion of the first specification data, the first specification included in the material data stored in the second material data storage unit without changing the motion data. changing the data to second specification data different from the first specification data,
The change of the first specification data to the second specification data is applied only to the terminal making the change,
Content delivery method.
JP2020065327A 2019-06-27 2020-03-31 Content distribution server, content creation device, educational terminal, content distribution program, and educational program Active JP7368298B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020065327A JP7368298B2 (en) 2019-06-27 2020-03-31 Content distribution server, content creation device, educational terminal, content distribution program, and educational program
JP2023177029A JP2023181234A (en) 2019-06-27 2023-10-12 Content distribution server, content creation device, educational terminal, content distribution program, and educational program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019120240A JP6766228B1 (en) 2019-06-27 2019-06-27 Distance education system
JP2020065327A JP7368298B2 (en) 2019-06-27 2020-03-31 Content distribution server, content creation device, educational terminal, content distribution program, and educational program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019120240A Division JP6766228B1 (en) 2019-06-27 2019-06-27 Distance education system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023177029A Division JP2023181234A (en) 2019-06-27 2023-10-12 Content distribution server, content creation device, educational terminal, content distribution program, and educational program

Publications (3)

Publication Number Publication Date
JP2021006894A JP2021006894A (en) 2021-01-21
JP2021006894A5 JP2021006894A5 (en) 2022-07-05
JP7368298B2 true JP7368298B2 (en) 2023-10-24

Family

ID=88418468

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020065327A Active JP7368298B2 (en) 2019-06-27 2020-03-31 Content distribution server, content creation device, educational terminal, content distribution program, and educational program
JP2023177029A Pending JP2023181234A (en) 2019-06-27 2023-10-12 Content distribution server, content creation device, educational terminal, content distribution program, and educational program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023177029A Pending JP2023181234A (en) 2019-06-27 2023-10-12 Content distribution server, content creation device, educational terminal, content distribution program, and educational program

Country Status (1)

Country Link
JP (2) JP7368298B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7072706B1 (en) * 2021-06-22 2022-05-20 ヤフー株式会社 Display control device, display control method and display control program
WO2024048425A1 (en) * 2022-08-31 2024-03-07 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Virtual space control method, virtual space control device, and virtual space control system
JP7495699B1 (en) 2023-12-01 2024-06-05 株式会社フォーサイト Learning support system and learning support method

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005321819A (en) 2005-06-13 2005-11-17 Digital Knowledge Co Ltd Personal computer communication learning system and storage medium with learning data for personal computer communication learning system recorded thereon
JP2009145883A (en) 2007-11-20 2009-07-02 Rissho Univ Learning system, storage medium, and learning method
JP2014102664A (en) 2012-11-20 2014-06-05 Talkie System Co Ltd Content creation, recording, reproduction system
JP2016194681A (en) 2015-03-31 2016-11-17 株式会社テレメディカ Physical assessment education service providing system and physical assessment education service providing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005321819A (en) 2005-06-13 2005-11-17 Digital Knowledge Co Ltd Personal computer communication learning system and storage medium with learning data for personal computer communication learning system recorded thereon
JP2009145883A (en) 2007-11-20 2009-07-02 Rissho Univ Learning system, storage medium, and learning method
JP2014102664A (en) 2012-11-20 2014-06-05 Talkie System Co Ltd Content creation, recording, reproduction system
JP2016194681A (en) 2015-03-31 2016-11-17 株式会社テレメディカ Physical assessment education service providing system and physical assessment education service providing method

Also Published As

Publication number Publication date
JP2021006894A (en) 2021-01-21
JP2023181234A (en) 2023-12-21

Similar Documents

Publication Publication Date Title
JP7368298B2 (en) Content distribution server, content creation device, educational terminal, content distribution program, and educational program
Reyna The potential of 360-degree videos for teaching, learning and research
CN114402276A (en) Teaching system, viewing terminal, information processing method, and program
Adão et al. A rapid prototyping tool to produce 360 video-based immersive experiences enhanced with virtual/multimedia elements
JP2021006977A (en) Content control system, content control method, and content control program
WO2021131343A1 (en) Content distribution system, content distribution method, and content distribution program
JP2014212490A (en) Terminal device, comment distribution system, and program
JP6766228B1 (en) Distance education system
JP6727388B1 (en) Class system, viewing terminal, information processing method and program
JP2023164439A (en) Lesson content distribution method, lesson content distribution system, terminals, and program
JP2021086145A (en) Class system, viewing terminal, information processing method, and program
WO2022255262A1 (en) Content provision system, content provision method, and content provision program
JP2008032787A (en) Language learning system and program for language learning system
JP7465736B2 (en) Content control system, content control method, and content control program
JP7465737B2 (en) Teaching system, viewing terminal, information processing method and program
JP6864041B2 (en) Information storage method and information storage system
KR20140087777A (en) Multimedia learning system and method using mobile terminal
JP6733027B1 (en) Content control system, content control method, and content control program
JP2021006886A (en) Content control system, content control method, and content control program
KR20160113750A (en) Providing system and authoring system for multilingual sound source contents
Remans User experience study of 360 music videos on computer monitor and virtual reality goggles
US20240015368A1 (en) Distribution system, distribution method, and non-transitory computer-readable recording medium
KR20010111862A (en) Internet remote education system and control method
Lazoryshynets et al. The project formation of virtual graphic images in applications for distance education systems
Eriksson THE BAREFOOT LECTURER-RECORDING LECTURES IN VIRTUAL REALITY

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220627

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220627

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230425

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230428

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230619

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231012

R150 Certificate of patent or registration of utility model

Ref document number: 7368298

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150