JP7469536B1 - Content management system, content management method, content management program, and user terminal - Google Patents

Content management system, content management method, content management program, and user terminal Download PDF

Info

Publication number
JP7469536B1
JP7469536B1 JP2023043297A JP2023043297A JP7469536B1 JP 7469536 B1 JP7469536 B1 JP 7469536B1 JP 2023043297 A JP2023043297 A JP 2023043297A JP 2023043297 A JP2023043297 A JP 2023043297A JP 7469536 B1 JP7469536 B1 JP 7469536B1
Authority
JP
Japan
Prior art keywords
terminal
mark
video content
content
distributor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023043297A
Other languages
Japanese (ja)
Inventor
卓魅 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dwango Co Ltd
Original Assignee
Dwango Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dwango Co Ltd filed Critical Dwango Co Ltd
Priority to JP2023043297A priority Critical patent/JP7469536B1/en
Application granted granted Critical
Publication of JP7469536B1 publication Critical patent/JP7469536B1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)

Abstract

【課題】動画コンテンツの特定のシーンに関する情報へのアクセスを支援すること。【解決手段】コンテンツ管理システムは、少なくとも一つのプロセッサを備える。少なくとも一つのプロセッサは、第1端末によって生成された動画コンテンツを第2端末上に表示し、動画コンテンツが表示されている間に第1端末において受け付けられたユーザ操作に応答して、該ユーザ操作のタイミングに対応する動画コンテンツのシーンに関連するマークを生成し、マークを動画コンテンツと併せて第2端末上に表示する。【選択図】図3[Problem] To support access to information about a specific scene of video content. [Solution] A content management system includes at least one processor. The at least one processor displays video content generated by a first terminal on a second terminal, and in response to a user operation accepted at the first terminal while the video content is being displayed, generates a mark related to a scene of the video content corresponding to the timing of the user operation, and displays the mark on the second terminal together with the video content. [Selected Figure] Figure 3

Description

本開示の一側面は、コンテンツ管理システム、コンテンツ管理方法、コンテンツ管理プログラム、およびユーザ端末に関する。 One aspect of the present disclosure relates to a content management system, a content management method, a content management program, and a user terminal.

表示されている動画コンテンツのシーンについての情報を記録する技術が知られている。例えば、特許文献1には、ユーザの指示を受けて、再生中の動画コンテンツを撮像し、スクリーンショットを生成する端末を有する情報処理システムが記載されている。特許文献2には、動画データの再生中に記録されたライブ配信の一部に基づいてギフトを生成し、そのギフトを動画データの再生中に生成側のユーザに付与するための処理を行うサーバが記載されている。 Technologies are known that record information about scenes of video content that are being displayed. For example, Patent Document 1 describes an information processing system having a terminal that captures video content being played and generates screenshots in response to a user's instruction. Patent Document 2 describes a server that generates a gift based on a portion of a live broadcast recorded during playback of video data, and performs processing to grant the gift to the user who generated the gift while the video data is being played.

特開2021-121125号公報JP 2021-121125 A 特許第7071718号公報Patent No. 7071718

動画コンテンツの特定のシーンに関する情報へのアクセスを支援することが望まれている。 It is desirable to facilitate access to information about specific scenes of video content.

本開示の一側面に係るコンテンツ管理システムは、少なくとも一つのプロセッサを備える。少なくとも一つのプロセッサは、第1端末によって生成された動画コンテンツを第2端末上に表示し、動画コンテンツが表示されている間に第1端末において受け付けられたユーザ操作に応答して、該ユーザ操作のタイミングに対応する動画コンテンツのシーンに関連するマークを生成し、マークを動画コンテンツと併せて第2端末上に表示する。 A content management system according to one aspect of the present disclosure includes at least one processor. The at least one processor displays video content generated by a first terminal on a second terminal, and in response to a user operation accepted on the first terminal while the video content is being displayed, generates a mark associated with a scene of the video content corresponding to the timing of the user operation, and displays the mark on the second terminal together with the video content.

このような側面においては、動画コンテンツが表示されている間に行われた第1端末でのユーザ操作に応答して、その操作に対応するシーンのマークが第2端末上に表示される。このマークにより、そのシーンに関する情報が、ユーザ操作を受け付けた第1端末とは別の第2端末に提供されるので、第2端末のユーザによるその情報へのアクセスを支援することができる。 In this aspect, in response to a user operation performed on a first terminal while video content is being displayed, a mark of a scene corresponding to the operation is displayed on a second terminal. This mark provides information about the scene to a second terminal other than the first terminal that accepted the user operation, thereby assisting the user of the second terminal in accessing the information.

本開示の一側面によれば、動画コンテンツの特定のシーンに関する情報へのアクセスを支援することができる。 One aspect of the present disclosure can assist in accessing information about specific scenes in video content.

コンテンツ管理システムの適用の一例を示す図である。FIG. 1 illustrates an example of an application of a content management system. コンテンツ管理システムに関連するハードウェア構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware configuration related to a content management system. コンテンツ管理システムに関連する機能構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a functional configuration related to a content management system. コンテンツ管理システムの動作の一例を示すシーケンス図である。FIG. 11 is a sequence diagram showing an example of an operation of the content management system. マーク生成の一例を示す図である。FIG. 13 is a diagram illustrating an example of mark generation. マーク操作の一例を示す図である。FIG. 13 is a diagram showing an example of a marking operation. マーク操作の別の例を示す図である。FIG. 13 is a diagram showing another example of a mark operation. マーク表示の例を示す図である。FIG. 13 is a diagram showing an example of mark display.

以下、添付図面を参照しながら本開示での実施形態を詳細に説明する。図面の説明において同一または同等の要素には同一の符号を付し、重複する説明を省略する。 Embodiments of the present disclosure will be described in detail below with reference to the accompanying drawings. In the description of the drawings, identical or equivalent elements are given the same reference numerals, and duplicate descriptions will be omitted.

[システムの概要]
本開示に係るコンテンツ管理システムは、ユーザに配信されるコンテンツを管理するコンピュータシステムである。コンテンツとは、コンピュータまたはコンピュータシステムによって提供され、人が認識可能な情報をいう。コンテンツを示す電子データをコンテンツデータという。一例では、コンテンツは音声を含み得る映像によって表現される動画コンテンツである。動画コンテンツは、カメラなどの撮像装置によって生成された映像を含んでもよいし、コンピュータグラフィック(CG)を含んでもよいし、これらの双方を含んでもよい。コンテンツは様々な態様の情報伝達またはコミュニケーションのために用いることができ、例えば、ニュース、教育、医療、ゲーム、チャット、商取引、講演、セミナー、研修、コンサート、アンケートなどの様々な場面または目的で利用され得る。コンテンツの配信とは、ユーザにコンテンツを提供するために実行される処理をいい、例えば、通信ネットワークを経由して情報をユーザに向けて送信する処理をいう。
[System Overview]
The content management system according to the present disclosure is a computer system that manages content to be distributed to users. Content refers to information provided by a computer or computer system and recognizable by humans. Electronic data indicating content is called content data. In one example, the content is video content expressed by video that may include audio. Video content may include video generated by an imaging device such as a camera, may include computer graphics (CG), or may include both. Content can be used for various types of information transmission or communication, and may be used in various situations or purposes such as news, education, medical care, games, chat, business transactions, lectures, seminars, training, concerts, and surveys. Content distribution refers to a process performed to provide content to a user, for example, a process of transmitting information to a user via a communication network.

コンテンツ管理システムは、動画コンテンツを示すコンテンツデータをユーザ端末に送信することで、該動画コンテンツをユーザに提供する。一例では、その動画コンテンツは配信者から提供される。配信者とは、コンテンツ管理システムによって視聴者に情報を提供しようとする人であり、動画コンテンツの発信者である。視聴者とは、コンテンツ管理システムによって情報を得ようとする人であり、動画コンテンツの利用者である。コンテンツ管理システムは、配信者端末から提供されたコンテンツデータを視聴者端末に送信する。視聴者端末は、コンテンツデータを処理して画面上に動画コンテンツを表示する。本開示において、配信者と視聴者とをユーザと総称して説明し、配信者端末と視聴者端末とをユーザ端末と総称して説明を行う場合がある。 The content management system provides video content to a user by transmitting content data indicating the video content to the user terminal. In one example, the video content is provided by a distributor. A distributor is a person who intends to provide information to a viewer through the content management system, and is the sender of the video content. A viewer is a person who intends to obtain information through the content management system, and is the user of the video content. The content management system transmits the content data provided from the distributor terminal to the viewer terminal. The viewer terminal processes the content data and displays the video content on a screen. In this disclosure, the distributor and viewer are sometimes collectively referred to as users, and the distributor terminal and viewer terminal are sometimes collectively referred to as user terminals.

一例では、コンテンツ管理システムはリアルタイム配信を行ってもよい。この場合、例えば、配信者端末は、撮影した映像を処理してコンテンツデータを生成し、そのコンテンツデータをコンテンツ管理システムに向けてリアルタイムに送信する。コンテンツ管理システムはそのコンテンツデータを受信し、視聴者端末に向けてそのコンテンツデータをリアルタイムに送信する。これはインターネット生放送の一態様である。コンテンツデータはコンテンツ管理システムにおいて生成されてもよい。すなわち、コンテンツ管理システムは、配信者端末から提供されるリアルタイムの映像を処理してコンテンツデータを生成し、そのコンテンツデータを視聴者端末に向けてリアルタイムに送信してもよい。コンテンツ管理システムは、リアルタイム配信後の所与の期間においてコンテンツを視聴可能なタイムシフトのために用いられてもよい。 In one example, the content management system may perform real-time distribution. In this case, for example, the distributor terminal processes the captured video to generate content data and transmits the content data to the content management system in real time. The content management system receives the content data and transmits the content data to the viewer terminal in real time. This is one aspect of live internet broadcasting. The content data may be generated in the content management system. That is, the content management system may process real-time video provided from the distributor terminal to generate content data and transmit the content data to the viewer terminal in real time. The content management system may be used for time shifting, which allows content to be viewed for a given period of time after real-time distribution.

コンテンツ管理システムは、視聴者が任意のタイミングでコンテンツを視聴可能なオンデマンド配信を行ってもよい。この場合、例えば、コンテンツ管理システムは、過去に撮影された映像を処理することで生成されたコンテンツデータを、データベースなどの記憶装置に格納してもよい。コンテンツ管理システムは、視聴者の要求に応じて、格納されたコンテンツデータを視聴者端末に向けて送信してもよい。 The content management system may perform on-demand distribution, allowing viewers to view content at any time. In this case, for example, the content management system may store content data generated by processing previously captured video in a storage device such as a database. The content management system may transmit the stored content data to the viewer's terminal in response to a viewer's request.

コンテンツ管理システムは、第1端末によって生成された動画コンテンツを第2端末上に表示する。第1端末は例えば配信者端末であり、第2端末は例えば視聴者端末である。 The content management system displays video content generated by a first terminal on a second terminal. The first terminal is, for example, a distributor terminal, and the second terminal is, for example, a viewer terminal.

一例では、コンテンツ管理システムは、動画コンテンツが表示されている間に第1端末において取得されたイベントに応答して、該イベントのタイミングに対応する動画コンテンツのシーンに関連するマークを生成する。マークは、シーンに関連する情報をユーザに視覚的に伝えるためのしるしであり、動画コンテンツとは独立した情報である。マークを示す電子データをマークデータという。マークは、例えば、静止画(写真、イラストなど)、動画像(映像またはアニメーション)、絵文字および文字(テキスト)のうちの少なくとも一つを含んで構成されてもよい。一例として、マークはシーンの少なくとも一部を含むスクリーンショット画像であってもよい。「イベントのタイミングに対応する(動画コンテンツの)シーン」は、例えば、イベントが発生した時点で表示されていたシーンでもよい。イベントとはコンピュータ内で発生する所定の現象をいい、コンテンツ管理システムではマーキングのトリガーとして機能する。イベントの例として、ユーザ操作の発生と、所定のパラメータに関する条件の充足とが挙げられる。 In one example, the content management system generates a mark related to a scene of the video content corresponding to the timing of the event in response to an event acquired on the first terminal while the video content is being displayed. The mark is a sign for visually conveying information related to the scene to the user, and is information independent of the video content. Electronic data indicating the mark is called mark data. The mark may be configured to include at least one of a still image (photograph, illustration, etc.), a moving image (video or animation), an emoji, and a character (text), for example. As an example, the mark may be a screenshot image including at least a part of the scene. The "scene (of the video content) corresponding to the timing of the event" may be, for example, a scene that was being displayed at the time the event occurred. An event is a specific phenomenon that occurs in a computer, and functions as a trigger for marking in the content management system. Examples of events include the occurrence of a user operation and the satisfaction of a condition related to a specific parameter.

一例では、コンテンツ管理システムは、生成されたマークを動画コンテンツと併せて第2端末上に表示する。すなわち、コンテンツ管理システムは生成されたマークを動画コンテンツとともに表示する。「マークを動画コンテンツと併せて表示する」とは、マークおよび動画コンテンツの双方を同一画面上に表示する処理をいう。マークは動画コンテンツと重なることなく表示されてもよいし、マークの少なくとも一部が動画コンテンツと重なるように表示されてもよい。 In one example, the content management system displays the generated mark together with the video content on the second terminal. That is, the content management system displays the generated mark together with the video content. "Displaying the mark together with the video content" refers to a process of displaying both the mark and the video content on the same screen. The mark may be displayed without overlapping with the video content, or may be displayed so that at least a portion of the mark overlaps with the video content.

以下では、マークを生成および表示する処理をマーキングともいう。上述したように、一例では、コンテンツ管理システムは第1端末でのユーザ操作に応答して第2端末にマークを表示する。マークがスクリーンショット画像である場合には、そのスクリーンショット画像は、マーキングのためのユーザ操作を受け付けた第1端末上にではなく、第1端末とは別の第2端末上に表示される。したがって、コンテンツ管理システムによって実行されるこのようなマーキングは、或る一つの端末内で閉じた処理である従来のスクリーンショットとは異なる。 Hereinafter, the process of generating and displaying a mark is also referred to as marking. As described above, in one example, the content management system displays the mark on a second terminal in response to a user operation on a first terminal. If the mark is a screenshot image, the screenshot image is displayed on a second terminal separate from the first terminal, not on the first terminal that accepted the user operation for marking. Thus, such marking performed by the content management system differs from conventional screenshots, which are a closed process within a single terminal.

ユーザ端末は、動画コンテンツの進行状況を表すシークバーを、動画コンテンツと併せて上に表示してもよい。その場合、コンテンツ管理システムは、イベントのタイミングに対応するシークバー上の位置に、該タイミングに対応するシーンのマークを表示してもよい。 The user terminal may display a seek bar indicating the progress of the video content together with the video content. In this case, the content management system may display a mark of the scene corresponding to the timing of the event at a position on the seek bar that corresponds to the timing.

[システムの構成]
図1は、一例に係るコンテンツ管理システム1の適用を示す図である。この例では、コンテンツ管理システム1はサーバ10を備える。サーバ10は、コンテンツデータを配信するコンピュータである。サーバ10は、通信ネットワークNを介して1以上の配信者端末20(第1端末)および1以上の視聴者端末30(第2端末)と接続する。サーバ10は、通信ネットワークNを介してユーザデータベース40とも接続する。通信ネットワークNはインターネットを含んで構成されていてもよいし、イントラネットを含んで構成されていてもよい。
[System Configuration]
FIG. 1 is a diagram showing an application of a content management system 1 according to an example. In this example, the content management system 1 includes a server 10. The server 10 is a computer that distributes content data. The server 10 is connected to one or more distributor terminals 20 (first terminals) and one or more viewer terminals 30 (second terminals) via a communication network N. The server 10 is also connected to a user database 40 via the communication network N. The communication network N may be configured to include the Internet or an intranet.

配信者端末20は、配信者によって用いられるコンピュータである。一例では、配信者端末20は、動画コンテンツを生成する機能と、コンテンツ管理システム1にアクセスしてその動画コンテンツを示すコンテンツデータを送信する機能とを有する。配信者端末20は映像を撮影、収録、および送信する機能を有する撮影システムであってもよい。あるいは、配信者端末20は高機能携帯電話機(スマートフォン)、タブレット端末、ウェアラブル端末(例えば、ヘッドマウントディスプレイ(HMD)、スマートグラスなど)、ラップトップ型パーソナルコンピュータ、携帯電話機などの携帯端末でもよい。あるいは、配信者端末20はデスクトップ型パーソナルコンピュータなどの据置型端末でもよい。 The distributor terminal 20 is a computer used by a distributor. In one example, the distributor terminal 20 has a function of generating video content and a function of accessing the content management system 1 and transmitting content data indicating the video content. The distributor terminal 20 may be a shooting system having functions of shooting, recording, and transmitting video. Alternatively, the distributor terminal 20 may be a portable terminal such as a high-performance mobile phone (smartphone), a tablet terminal, a wearable terminal (e.g., a head-mounted display (HMD), smart glasses, etc.), a laptop personal computer, or a mobile phone. Alternatively, the distributor terminal 20 may be a stationary terminal such as a desktop personal computer.

視聴者端末30は、視聴者によって用いられるコンピュータである。一例では、視聴者端末30は、コンテンツ管理システム1にアクセスしてコンテンツデータを受信および表示する機能を有する。視聴者端末30は高機能携帯電話機(スマートフォン)、タブレット端末、ウェアラブル端末(例えば、ヘッドマウントディスプレイ(HMD)、スマートグラスなど)、ラップトップ型パーソナルコンピュータ、携帯電話機などの携帯端末でもよい。あるいは、視聴者端末30はデスクトップ型パーソナルコンピュータなどの据置型端末でもよい。 The viewer terminal 30 is a computer used by a viewer. In one example, the viewer terminal 30 has a function of accessing the content management system 1 to receive and display content data. The viewer terminal 30 may be a portable terminal such as a high-function mobile phone (smartphone), a tablet terminal, a wearable terminal (e.g., a head-mounted display (HMD), smart glasses, etc.), a laptop personal computer, or a mobile phone. Alternatively, the viewer terminal 30 may be a stationary terminal such as a desktop personal computer.

配信者は、配信者端末20を操作してコンテンツ管理システム1にログインし、これにより動画コンテンツを視聴者に提供できる。視聴者は、視聴者端末30を操作してコンテンツ管理システム1にログインし、これにより視聴者はコンテンツを視聴できる。本開示では、コンテンツ管理システム1の視聴者および配信者が既にログインしていることを前提とする。視聴者によるコンテンツ管理システム1へのログインが省略されてもよい。すなわち、コンテンツ管理システム1は、ログインしていない一般の視聴者の視聴者端末30にコンテンツデータを送信してもよい。この場合、ログインしていない一般の視聴者もコンテンツを視聴できる。 Distributors operate the distributor terminal 20 to log in to the content management system 1, thereby enabling them to provide video content to viewers. Viewers operate the viewer terminal 30 to log in to the content management system 1, thereby enabling them to view the content. This disclosure is based on the premise that viewers and distributors of the content management system 1 are already logged in. Viewers may be omitted from logging in to the content management system 1. In other words, the content management system 1 may transmit content data to the viewer terminal 30 of a general viewer who is not logged in. In this case, general viewers who are not logged in can also view the content.

ユーザデータベース40は、コンテンツ管理システム1を利用するユーザに関するユーザデータを記憶する非一時的な記憶装置である。一例では、ユーザデータの各レコードは、個々のユーザを一意に特定する識別子であるユーザIDと、ユーザの属性を示す属性情報とを含む。ユーザの属性とは、ユーザの特徴または性質を示す情報をいう。例えば、属性情報は氏名、年齢、性別、ユーザによって視聴されたコンテンツの識別子である1以上のコンテンツID、または各コンテンツの視聴回数を含んでもよい。属性情報は、ユーザが使用できるアイコンを含んでもよい。ユーザのアイコンは、該ユーザによって制作されてもよいし、他者からギフトとして該ユーザに提供されてもよいし、該ユーザによって他者にギフトとして提供可能であってもよい。ギフトとしてのアイコンは、通常のアイコンとは異なる特殊な表示態様を有してもよいし、ギフトの受領者に金銭などの報酬を付与する機能を有してもよい。属性情報は、ユーザデータベース40以外の領域に記憶されていてもよい。例えば、属性情報は、視聴者端末30におけるブラウザのクッキー(Cookie)領域に記憶されていてもよい。属性情報は、ユーザがコンテンツ管理システム1にログインしているか否かを示す情報を含んでいてもよい。 The user database 40 is a non-transient storage device that stores user data related to users who use the content management system 1. In one example, each record of the user data includes a user ID, which is an identifier that uniquely identifies an individual user, and attribute information that indicates the attributes of the user. The attributes of a user refer to information that indicates the characteristics or nature of a user. For example, the attribute information may include a name, age, sex, one or more content IDs that are identifiers of the content viewed by the user, or the number of times each content has been viewed. The attribute information may include an icon that the user can use. The icon of the user may be created by the user, may be provided to the user by another person as a gift, or may be able to be provided by the user to another person as a gift. The icon as a gift may have a special display mode different from a normal icon, or may have a function of giving a reward such as money to the recipient of the gift. The attribute information may be stored in an area other than the user database 40. For example, the attribute information may be stored in a cookie area of the browser in the viewer terminal 30. The attribute information may include information indicating whether the user is logged in to the content management system 1.

ユーザデータベース40は、単一のデータベースとして構築されてもよいし、複数のデータベースの集合であってもよい。ユーザデータベース40は、コンテンツ管理システム1の構成要素であってもよいし、コンテンツ管理システム1とは別のコンピュータシステム内に設けられてもよい。 The user database 40 may be constructed as a single database or may be a collection of multiple databases. The user database 40 may be a component of the content management system 1, or may be provided in a computer system separate from the content management system 1.

図2は、コンテンツ管理システム1に関連するハードウェア構成の一例を示す図である。図2は、サーバ10として機能するサーバコンピュータ100と、配信者端末20または視聴者端末30として機能する端末コンピュータ200とを示す。 Figure 2 is a diagram showing an example of a hardware configuration related to the content management system 1. Figure 2 shows a server computer 100 functioning as a server 10, and a terminal computer 200 functioning as a distributor terminal 20 or a viewer terminal 30.

一例として、サーバコンピュータ100はハードウェア構成要素として、プロセッサ101、主記憶部102、補助記憶部103、および通信部104を備える。プロセッサ101は、オペレーティングシステムおよびアプリケーションプログラムを実行する演算装置であり、例えばCPU(Central Processing Unit)またはGPU(Graphics Processing Unit)である。主記憶部102は、実行されようとするプログラム、演算結果などを記憶する装置であり、例えばROM(Read Only Memory)またはRAM(Random Access Memory)により構成される。補助記憶部103は、一般に主記憶部102よりも大量のデータを記憶可能な装置であり、例えばハードディスク、フラッシュメモリなどの不揮発性記憶媒体によって構成される。補助記憶部103は、サーバコンピュータ100をサーバ10として機能させるためのサーバプログラムP1と各種のデータとを記憶する。通信部104は、通信ネットワークNを介して他のコンピュータとの間でデータ通信を実行する装置であり、例えばネットワークカードまたは無線通信モジュールにより構成される。 As an example, the server computer 100 includes a processor 101, a main memory unit 102, an auxiliary memory unit 103, and a communication unit 104 as hardware components. The processor 101 is a computing device that executes an operating system and application programs, and is, for example, a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit). The main memory unit 102 is a device that stores programs to be executed, calculation results, etc., and is, for example, composed of a ROM (Read Only Memory) or a RAM (Random Access Memory). The auxiliary memory unit 103 is a device that can generally store a larger amount of data than the main memory unit 102, and is, for example, composed of a non-volatile storage medium such as a hard disk or a flash memory. The auxiliary memory unit 103 stores the server program P1 and various data for causing the server computer 100 to function as the server 10. The communication unit 104 is a device that performs data communication with other computers via the communication network N, and is configured, for example, by a network card or a wireless communication module.

本実施形態では、コンテンツ管理プログラムはサーバプログラムP1として実装される。サーバ10の各機能要素は、プロセッサ101または主記憶部102の上にサーバプログラムP1を読み込ませてプロセッサ101にそのプログラムを実行させることで実現される。サーバプログラムP1は、サーバ10の各機能要素を実現するためのコードを含む。プロセッサ101はサーバプログラムP1に従って通信部104を動作させ、主記憶部102または補助記憶部103におけるデータの読み出しおよび書き込みを実行する。 In this embodiment, the content management program is implemented as a server program P1. Each functional element of the server 10 is realized by loading the server program P1 onto the processor 101 or the main memory unit 102 and having the processor 101 execute the program. The server program P1 includes code for realizing each functional element of the server 10. The processor 101 operates the communication unit 104 in accordance with the server program P1, and executes reading and writing of data in the main memory unit 102 or the auxiliary memory unit 103.

サーバ10は、一つまたは複数のコンピュータにより構成され得る。複数のコンピュータが用いられる場合には、通信ネットワークNを介してこれらのコンピュータが互いに接続されることで、論理的に一つのサーバ10が構成される。 The server 10 may be composed of one or more computers. When multiple computers are used, these computers are connected to each other via a communication network N to logically constitute a single server 10.

一例として、端末コンピュータ200はハードウェア構成要素として、プロセッサ201、主記憶部202、補助記憶部203、通信部204、入力インタフェース205、出力インタフェース206、および撮像部207を備える。プロセッサ201は、オペレーティングシステムおよびアプリケーションプログラムを実行する演算装置であり、例えばCPUまたはGPUである。主記憶部202は、実行されようとするプログラム、演算結果などを記憶する装置であり、例えばROMまたはRAMにより構成される。補助記憶部203は、一般に主記憶部202よりも大量のデータを記憶可能な装置であり、例えばハードディスク、フラッシュメモリなどの不揮発性記憶媒体によって構成される。補助記憶部203は、端末コンピュータ200を配信者端末20または視聴者端末30として機能させるためのクライアントプログラムP2と各種のデータとを記憶する。通信部204は、通信ネットワークNを介して他のコンピュータとの間でデータ通信を実行する装置であり、例えばネットワークカードまたは無線通信モジュールにより構成される。入力インタフェース205は、ユーザの操作または動作に基づいてデータを受け付ける装置であり、例えば、キーボード、操作ボタン、ポインティングデバイス、タッチパネル、マイクロフォン、センサ、およびカメラのうちの少なくとも一つによって構成される。出力インタフェース206は、端末コンピュータ200で処理されたデータを出力する装置であり、例えば、モニタ、タッチパネル、HMDなどの表示装置を含んで構成される。撮像部207は、現実世界を写した画像(映像または写真)を撮影する装置であり、例えばカメラである。撮像部207は入力インタフェース205としても機能し得る。 As an example, the terminal computer 200 includes, as hardware components, a processor 201, a main memory unit 202, an auxiliary memory unit 203, a communication unit 204, an input interface 205, an output interface 206, and an imaging unit 207. The processor 201 is a computing device that executes an operating system and application programs, and is, for example, a CPU or a GPU. The main memory unit 202 is a device that stores programs to be executed, computation results, etc., and is, for example, composed of a ROM or a RAM. The auxiliary memory unit 203 is a device that can generally store a larger amount of data than the main memory unit 202, and is, for example, composed of a non-volatile storage medium such as a hard disk or a flash memory. The auxiliary memory unit 203 stores a client program P2 and various data for causing the terminal computer 200 to function as a distributor terminal 20 or a viewer terminal 30. The communication unit 204 is a device that executes data communication with other computers via the communication network N, and is, for example, composed of a network card or a wireless communication module. The input interface 205 is a device that accepts data based on a user's operation or action, and is composed of at least one of a keyboard, operation buttons, a pointing device, a touch panel, a microphone, a sensor, and a camera, for example. The output interface 206 is a device that outputs data processed by the terminal computer 200, and is composed of a display device such as a monitor, a touch panel, or an HMD, for example. The imaging unit 207 is a device that captures an image (video or photo) of the real world, and is, for example, a camera. The imaging unit 207 can also function as the input interface 205.

配信者端末20または視聴者端末30の各機能要素は、対応するクライアントプログラムP2をプロセッサ201または主記憶部202に読み込ませてプロセッサ201にそのプログラムを実行させることで実現される。クライアントプログラムP2は、配信者端末20または視聴者端末30の各機能要素を実現するためのコードを含む。プロセッサ201はクライアントプログラムP2に従って通信部204、入力インタフェース205、出力インタフェース206、または撮像部207を動作させ、主記憶部202または補助記憶部203におけるデータの読み出しおよび書き込みを行う。 Each functional element of the distributor terminal 20 or the viewer terminal 30 is realized by loading the corresponding client program P2 into the processor 201 or the main memory unit 202 and having the processor 201 execute the program. The client program P2 includes code for realizing each functional element of the distributor terminal 20 or the viewer terminal 30. The processor 201 operates the communication unit 204, the input interface 205, the output interface 206, or the imaging unit 207 in accordance with the client program P2, and reads and writes data in the main memory unit 202 or the auxiliary memory unit 203.

サーバプログラムP1およびクライアントプログラムP2の少なくとも一つは、CD-ROM、DVD-ROM、半導体メモリなどの有形の記録媒体に非一時的に記録された上で提供されてもよい。あるいは、これらのプログラムの少なくとも一つは、搬送波に重畳されたデータ信号として通信ネットワークNを介して提供されてもよい。これらのプログラムは別々に提供されてもよいし、一緒に提供されてもよい。 At least one of the server program P1 and the client program P2 may be provided after being non-temporarily recorded on a tangible recording medium such as a CD-ROM, DVD-ROM, or semiconductor memory. Alternatively, at least one of these programs may be provided via the communications network N as a data signal superimposed on a carrier wave. These programs may be provided separately or together.

図3は、コンテンツ管理システム1に関連する機能構成の一例を示す図である。サーバ10は、機能要素としてコンテンツ転送部11およびマーク制御部12を備える。コンテンツ転送部11は、配信者端末20から送信されたコンテンツデータを受信し、そのコンテンツデータを視聴者端末30に送信する機能要素である。マーク制御部12は、配信者端末20または視聴者端末30でのイベントに応答して、配信者端末20または視聴者端末30におけるマーキングを実行する機能要素である。 Figure 3 is a diagram showing an example of a functional configuration related to the content management system 1. The server 10 has a content transfer unit 11 and a mark control unit 12 as functional elements. The content transfer unit 11 is a functional element that receives content data sent from the distributor terminal 20 and transmits the content data to the viewer terminal 30. The mark control unit 12 is a functional element that executes marking at the distributor terminal 20 or the viewer terminal 30 in response to an event at the distributor terminal 20 or the viewer terminal 30.

配信者端末20は、機能要素としてコンテンツ生成部21、コンテンツ表示部22、画面制御部23、マーキング要求部24、およびマーク表示部25を備える。コンテンツ生成部21は動画コンテンツを生成し、その動画コンテンツを示すコンテンツデータをサーバ10に送信する機能要素である。コンテンツ表示部22は、生成された動画コンテンツを配信者端末20の画面上に表示する機能要素である。画面制御部23は、マークに対するユーザ操作に応答して、画面の表示を制御する機能要素である。マーキング要求部24は、マーキングに関するイベントを取得し、マークの生成および表示を要求するためのマーキング要求をサーバ10に送信する機能要素である。配信者端末20で取得されるイベントは、例えば、配信者端末20において受け付けられたユーザ操作である。マーク表示部25は、サーバ10からマークデータを受信し、そのマークデータに基づいてマークを画面上に表示する機能要素である。 The distributor terminal 20 includes functional elements including a content generation unit 21, a content display unit 22, a screen control unit 23, a marking request unit 24, and a mark display unit 25. The content generation unit 21 is a functional element that generates video content and transmits content data indicating the video content to the server 10. The content display unit 22 is a functional element that displays the generated video content on the screen of the distributor terminal 20. The screen control unit 23 is a functional element that controls the display of the screen in response to a user operation on a mark. The marking request unit 24 is a functional element that acquires an event related to marking and transmits a marking request to the server 10 to request the generation and display of a mark. The event acquired by the distributor terminal 20 is, for example, a user operation accepted by the distributor terminal 20. The mark display unit 25 is a functional element that receives mark data from the server 10 and displays a mark on the screen based on the mark data.

視聴者端末30は、機能要素としてコンテンツ表示部31、画面制御部32、マーキング要求部33、およびマーク表示部34を備える。コンテンツ表示部31は、サーバ10からコンテンツデータを受信し、そのコンテンツデータに基づいて動画コンテンツを表示する機能要素である。画面制御部32は、マークに対するユーザ操作に応答して、画面の表示を制御する機能要素である。マーキング要求部33は、マーキングに関するイベントを取得し、マーキング要求をサーバ10に送信する機能要素である。視聴者端末30で取得されるイベントは、例えば、視聴者端末30において受け付けられたユーザ操作である。マーク表示部34は、サーバ10からマークデータを受信し、そのマークデータに基づいてマークを画面上に表示する機能要素である。 The viewer terminal 30 has functional elements including a content display unit 31, a screen control unit 32, a marking request unit 33, and a mark display unit 34. The content display unit 31 is a functional element that receives content data from the server 10 and displays video content based on the content data. The screen control unit 32 is a functional element that controls the display of the screen in response to a user operation on a mark. The marking request unit 33 is a functional element that acquires an event related to marking and transmits a marking request to the server 10. An event acquired by the viewer terminal 30 is, for example, a user operation accepted by the viewer terminal 30. The mark display unit 34 is a functional element that receives mark data from the server 10 and displays a mark on the screen based on the mark data.

[システムの動作]
図4を参照しながら、コンテンツ管理システム1の動作を説明するとともに、一例に係るコンテンツ管理方法について説明する。図4は、コンテンツ管理システム1の動作の一例を処理フローS1として示すシーケンス図である。
[System Operation]
The operation of the content management system 1 and an example of a content management method will be described with reference to Fig. 4. Fig. 4 is a sequence diagram showing an example of the operation of the content management system 1 as a process flow S1.

ステップS101では、配信者端末20のコンテンツ生成部21が動画コンテンツを生成する。一例では、コンテンツ生成部21は、配信者が配信開始のためのユーザ操作を行ったことに応答して、動画コンテンツの生成を開始する。例えば、コンテンツ生成部21は、撮像部207によって撮影された映像を含む動画コンテンツを生成してもよいし、補助記憶部203に記憶されたコンテンツ素材に基づいて動画コンテンツを生成してもよい。 In step S101, the content generation unit 21 of the distributor terminal 20 generates video content. In one example, the content generation unit 21 starts generating video content in response to a user operation by the distributor to start distribution. For example, the content generation unit 21 may generate video content including video captured by the imaging unit 207, or may generate video content based on content material stored in the auxiliary storage unit 203.

ステップS102では、コンテンツ生成部21がその動画コンテンツを示すコンテンツデータをサーバ10に送信する。一例では、コンテンツ生成部21は、映像の撮影に基づく動画コンテンツの生成に応じてコンテンツデータを連続的にサーバ10に送信する。サーバ10ではコンテンツ転送部11がそのコンテンツデータを受信する。 In step S102, the content generation unit 21 transmits content data indicating the video content to the server 10. In one example, the content generation unit 21 continuously transmits content data to the server 10 in response to the generation of video content based on the shooting of a video. In the server 10, the content transfer unit 11 receives the content data.

ステップS103では、コンテンツ転送部11がそのコンテンツデータを視聴者端末30に送信する。一例として、コンテンツ転送部11は、視聴者端末30からのコンテンツ要求に応答して、その視聴者端末30にコンテンツデータを送信し始める。コンテンツ要求は、動画コンテンツの再生をサーバ10に要求するためのデータ信号である。一例では、コンテンツ転送部11はコンテンツデータを連続的に視聴者端末30に送信する。視聴者端末30ではコンテンツ表示部31が、コンテンツ転送部11から送信されたコンテンツデータを受信する。 In step S103, the content transfer unit 11 transmits the content data to the viewer terminal 30. As an example, the content transfer unit 11 starts transmitting content data to the viewer terminal 30 in response to a content request from the viewer terminal 30. The content request is a data signal for requesting the server 10 to play video content. As an example, the content transfer unit 11 continuously transmits content data to the viewer terminal 30. In the viewer terminal 30, the content display unit 31 receives the content data transmitted from the content transfer unit 11.

ステップS104では、配信者端末20のコンテンツ表示部22が、コンテンツ生成部21によって生成された動画コンテンツを画面上に表示する。動画コンテンツが音声を含む場合には、コンテンツ表示部22は動画コンテンツに含まれる音声をスピーカから出力し得る。コンテンツ表示部22はシークバーを動画コンテンツと併せて画面上に表示してもよい。 In step S104, the content display unit 22 of the distributor terminal 20 displays the video content generated by the content generation unit 21 on the screen. If the video content includes audio, the content display unit 22 may output the audio included in the video content from a speaker. The content display unit 22 may also display a seek bar on the screen together with the video content.

ステップS105では、視聴者端末30のコンテンツ表示部31が、受信されたコンテンツデータを処理して動画コンテンツを画面上に表示する。動画コンテンツが音声を含む場合には、コンテンツ表示部31は動画コンテンツに含まれる音声をスピーカから出力し得る。コンテンツ表示部31はシークバーを動画コンテンツと併せて画面上に表示してもよい。 In step S105, the content display unit 31 of the viewer terminal 30 processes the received content data and displays the video content on the screen. If the video content includes audio, the content display unit 31 may output the audio included in the video content from a speaker. The content display unit 31 may also display a seek bar on the screen together with the video content.

配信者端末20において動画コンテンツが表示されている間にマーキングに関するイベントが発生した場合には、ステップS106,S107が実行される。 If a marking-related event occurs while video content is being displayed on the distributor terminal 20, steps S106 and S107 are executed.

ステップS106では、マーキング要求部24が、マーキングに関するイベントを取得する。一例として、マーキング要求部24は、配信者による配信者端末20への所定のユーザ操作をイベントとして取得する。ユーザ操作は、例えば、画面上の所定の位置に対するタップまたはクリック操作、所定のコマンド入力または音声入力などであってよい。マーキング要求部24は、マークが表示されるユーザ端末として配信者端末20を指定するための入力をさらに受け付けてもよい。この入力は、配信者が自分の端末上にのみマークを表示させる場合に行われる。 In step S106, the marking request unit 24 acquires an event related to marking. As an example, the marking request unit 24 acquires a predetermined user operation on the broadcaster terminal 20 by the broadcaster as the event. The user operation may be, for example, a tap or click operation on a predetermined position on the screen, a predetermined command input, or voice input. The marking request unit 24 may further receive an input for designating the broadcaster terminal 20 as the user terminal on which the mark is to be displayed. This input is made when the broadcaster wants the mark to be displayed only on his or her own terminal.

ステップS107では、マーキング要求部24がマーキング要求をサーバ10に送信する。例えば、マーキング要求部24は、マーキングに関するイベントが発生した時刻を含むマーキング要求を生成する。以下ではその時刻を「イベント時刻」ともいう。マーキング要求部24はイベント時刻に加えて、マークを表示させようとするユーザ端末、およびマークの少なくとも一方をさらに示すマーキング要求を生成してもよい。マーキング要求部24は生成されたマーキング要求を送信する。サーバ10では、マーク制御部12がそのマーキング要求を受信する。 In step S107, the marking request unit 24 transmits a marking request to the server 10. For example, the marking request unit 24 generates a marking request including the time when an event related to marking occurred. Hereinafter, this time is also referred to as the "event time". In addition to the event time, the marking request unit 24 may generate a marking request that further indicates at least one of the user terminal on which the mark is to be displayed and the mark. The marking request unit 24 transmits the generated marking request. In the server 10, the mark control unit 12 receives the marking request.

視聴者端末30において動画コンテンツが表示されている間にマーキングに関するイベントが発生した場合には、ステップS108,S109が実行される。 If a marking-related event occurs while video content is being displayed on the viewer terminal 30, steps S108 and S109 are executed.

ステップS108では、マーキング要求部33が、マーキングに関するイベントを取得する。一例として、マーキング要求部33は、視聴者による視聴者端末30への所定のユーザ操作をイベントとして取得する。配信者端末20と同様に、ユーザ操作は、例えば、画面上の所定の位置に対するタップまたはクリック操作、所定のコマンド入力または音声入力などであってよい。マーキング要求部33は、マークが表示されるユーザ端末として視聴者端末30を指定するための入力をさらに受け付けてもよい。この入力は、視聴者が自分の端末上にのみマークを表示させる場合に行われる。 In step S108, the marking request unit 33 acquires an event related to marking. As an example, the marking request unit 33 acquires a predetermined user operation on the viewer terminal 30 by the viewer as the event. As with the broadcaster terminal 20, the user operation may be, for example, a tap or click operation on a predetermined position on the screen, a predetermined command input, or voice input. The marking request unit 33 may further receive an input for designating the viewer terminal 30 as the user terminal on which the mark is to be displayed. This input is made when the viewer wants the mark to be displayed only on his or her own terminal.

ステップS109では、マーキング要求部33がマーキング要求をサーバ10に送信する。例えば、マーキング要求部33は、イベント時刻を含むマーキング要求を生成する。マーキング要求部33はそのイベント時刻に加えて、マークを表示させようとするユーザ端末、およびマークの少なくとも一方をさらに示すマーキング要求を生成してもよい。マーキング要求部33は、生成されたマーキング要求を送信する。サーバ10では、マーク制御部12がそのマーキング要求を受信する。 In step S109, the marking request unit 33 transmits a marking request to the server 10. For example, the marking request unit 33 generates a marking request including an event time. The marking request unit 33 may generate a marking request that further indicates, in addition to the event time, at least one of the user terminal on which the mark is to be displayed and the mark. The marking request unit 33 transmits the generated marking request. In the server 10, the mark control unit 12 receives the marking request.

ステップS110では、マーク制御部12が、配信者端末20または視聴者端末30から受信したマーキング要求に基づいてマークデータを生成する。例えば、マーク制御部12は、マーキング要求によって示されるイベント時刻、すなわち、マーキングに関するイベントが配信者端末20または視聴者端末30において発生した時刻を含む。マーク制御部12は、マーキング要求によって示されるマークをさらに含むマークデータを生成してもよい。あるいは、マーク制御部12は。イベント時刻に対応する動画コンテンツのシーンを特定し、そのシーンを示すマークを生成し、そのマークをさらに含むマークデータを生成してもよい。あるいは、マーク制御部12はユーザデータベース40を参照して、マーキング要求に対応するユーザ、すなわちマーキング要求の基となるユーザ操作を行ったユーザのアイコンを取得し、そのアイコンをマークとしてさらに含むマークデータを生成してもよい。 In step S110, the mark control unit 12 generates mark data based on the marking request received from the distributor terminal 20 or the viewer terminal 30. For example, the mark control unit 12 includes the event time indicated by the marking request, i.e., the time when the event related to the marking occurred at the distributor terminal 20 or the viewer terminal 30. The mark control unit 12 may generate mark data further including the mark indicated by the marking request. Alternatively, the mark control unit 12 may identify a scene of the video content corresponding to the event time, generate a mark indicating the scene, and generate mark data further including the mark. Alternatively, the mark control unit 12 may refer to the user database 40 to obtain an icon of the user corresponding to the marking request, i.e., the user who performed the user operation that is the basis of the marking request, and generate mark data further including the icon as a mark.

ステップS111では、マーク制御部12がマークデータを、マークを表示させようとするユーザ端末に送信する。マークを表示させようとするユーザ端末が指定されていない場合には、マーク制御部12は、動画コンテンツを表示している配信者端末20および各視聴者端末30にマークデータを送信してもよい。ユーザ端末が指定されている場合には、マーク制御部12はそのユーザ端末にマークデータを送信する。処理フローS1では、マーク制御部12は配信者端末20および視聴者端末30にマークデータを送信する。 In step S111, the mark control unit 12 transmits the mark data to the user terminal on which the mark is to be displayed. If the user terminal on which the mark is to be displayed is not specified, the mark control unit 12 may transmit the mark data to the distributor terminal 20 and each viewer terminal 30 that are displaying the video content. If a user terminal is specified, the mark control unit 12 transmits the mark data to that user terminal. In process flow S1, the mark control unit 12 transmits the mark data to the distributor terminal 20 and the viewer terminal 30.

ステップS112では、配信者端末20のマーク表示部25が、サーバ10から受信したマークデータに基づいてマークを画面上に表示する。一例では、マーク表示部25は、マークデータによって示されるイベント時刻に対応するシークバー上の位置、例えばユーザ操作のタイミングに対応するシークバー上の位置を特定し、その位置にマークを表示する。マークデータがマークを含む場合には、マーク表示部25はそのマークを表示する。マークデータがマークを含まない場合には、マーク表示部25は、イベント時刻に対応する動画コンテンツのシーンを特定し、そのシーンを示すマークを生成し、そのマークを表示してもよい。 In step S112, the mark display unit 25 of the distributor terminal 20 displays a mark on the screen based on the mark data received from the server 10. In one example, the mark display unit 25 identifies a position on the seek bar corresponding to the event time indicated by the mark data, for example a position on the seek bar corresponding to the timing of a user operation, and displays a mark at that position. If the mark data includes a mark, the mark display unit 25 displays the mark. If the mark data does not include a mark, the mark display unit 25 may identify a scene of the video content corresponding to the event time, generate a mark indicating the scene, and display the mark.

ステップS113では、視聴者端末30のマーク表示部34が、サーバ10から受信したマークデータに基づいてマークを画面上に表示する。マーク表示部34は配信者端末20と同様にマークを表示する。マーク表示部34は、マークデータによって示されるイベント時刻に対応するシークバー上の位置にマークを表示してもよい。マーク表示部34は、マークデータに含まれるマークを表示してもよいし、イベント時刻に対応する動画コンテンツのシーンを特定し、そのシーンを示すマークを表示してもよい。 In step S113, the mark display unit 34 of the viewer terminal 30 displays a mark on the screen based on the mark data received from the server 10. The mark display unit 34 displays the mark in the same manner as the distributor terminal 20. The mark display unit 34 may display the mark at a position on the seek bar corresponding to the event time indicated by the mark data. The mark display unit 34 may display the mark included in the mark data, or may identify a scene of the video content corresponding to the event time and display a mark indicating that scene.

ステップS114では、画面制御部23が、マークに対するユーザ操作に応答して、画面の表示を制御する。そのユーザ操作は、例えば、配信者端末20の画面上に表示されているマークに対するタップまたはクリック操作であってよい。一例として、画面制御部23は、操作されたマークに対応するシーンから動画コンテンツを再生してもよい。あるいは、画面制御部23は操作されたマークを拡大表示してもよい。 In step S114, the screen control unit 23 controls the display of the screen in response to a user operation on the mark. The user operation may be, for example, a tap or click operation on the mark displayed on the screen of the distributor terminal 20. As an example, the screen control unit 23 may play back video content from a scene corresponding to the operated mark. Alternatively, the screen control unit 23 may enlarge and display the operated mark.

ステップS115では、画面制御部32が、マークに対するユーザ操作に応答して、画面の表示を制御する。そのユーザ操作は、例えば、視聴者端末30の画面上に表示されているマークに対するタップまたはクリック操作であってよい。配信者端末20と同様に、画面制御部32は、操作されたマークに対応するシーンから動画コンテンツを再生してもよいし、操作されたマークを拡大表示してもよい。 In step S115, the screen control unit 32 controls the display of the screen in response to a user operation on the mark. The user operation may be, for example, a tap or click operation on the mark displayed on the screen of the viewer terminal 30. As with the distributor terminal 20, the screen control unit 32 may play back video content from a scene corresponding to the operated mark, or may enlarge and display the operated mark.

処理フローS1では、サーバ10は対象端末(配信者端末20または視聴者端末30)に、コンテンツデータ、マークデータのような各種データを送信して、該対象端末に動画コンテンツおよびマークの表示を制御させる。このようなサーバ10による対象端末の制御は、サーバ10(コンテンツ管理システム1)が動画コンテンツおよびマークを対象端末上に表示することの一例である。 In process flow S1, the server 10 transmits various data such as content data and mark data to the target terminal (the distributor terminal 20 or the viewer terminal 30) and causes the target terminal to control the display of video content and marks. Such control of the target terminal by the server 10 is an example of the server 10 (content management system 1) displaying video content and marks on the target terminal.

[マーク制御の例]
図5~8を参照しながら、マーク制御の様々な例を説明する。図5は、配信者側でのマークの生成および表示の例を示す図であり、図6~8は、視聴者側でのマークの表示および操作による画面制御の例を示す図である。図5では配信者端末20として用いられるスマートフォンを示し、図6~8では視聴者端末30としてラップトップ型パーソナルコンピュータを示すが、これらの図で示される例は互いに代替しても同様に実行され得ることに留意されたい。
[Example of mark control]
Various examples of mark control will be described with reference to Figures 5 to 8. Figure 5 is a diagram showing an example of mark generation and display on the distributor side, and Figures 6 to 8 are diagrams showing examples of screen control by mark display and operation on the viewer side. Figure 5 shows a smartphone used as the distributor terminal 20, and Figures 6 to 8 show a laptop personal computer as the viewer terminal 30, but it should be noted that the examples shown in these figures can be similarly executed by replacing each other.

図5の例では、配信者端末20は、動画コンテンツ310を表示するコンテンツ領域301と、動画コンテンツ310の進行状況を表すシークバー320と、動画コンテンツ310が表示されている間にユーザから投稿されたコメントを表示するコメントリスト330を含む画面300を表示する。シークバー320およびコメントリスト330は、コンテンツ領域301に重ねて表示されている。 In the example of FIG. 5, the distributor terminal 20 displays a screen 300 including a content area 301 that displays video content 310, a seek bar 320 that indicates the progress of the video content 310, and a comment list 330 that displays comments posted by users while the video content 310 is being displayed. The seek bar 320 and the comment list 330 are displayed superimposed on the content area 301.

コメントとは、ユーザによって入力される、動画コンテンツとは独立した情報をいう。コンテンツ管理システム1(サーバ10)は、動画コンテンツ310が表示されている間に配信者端末20(第1端末)または視聴者端末30(第2端末)において入力されたコメントを、動画コンテンツ310と併せて配信者端末20および視聴者端末30の少なくとも一方に表示する。 Comments are information that are input by users and are independent of the video content. The content management system 1 (server 10) displays comments that are input at the distributor terminal 20 (first terminal) or the viewer terminal 30 (second terminal) while the video content 310 is being displayed, together with the video content 310, on at least one of the distributor terminal 20 and the viewer terminal 30.

この例では、コンテンツ領域301は、ある家族の日常を映すライブ配信を動画コンテンツ310として表示している。シークバー320上には、動画コンテンツ310のシーンに関連するマーク341,342,343と、動画コンテンツ310の現在の再生位置を示すスクローラ321と、カメラアイコン322とが表示されている。マークはスクリーンショット画像であり、該マークを生成するためのユーザ操作が行われたタイミングに対応する動画コンテンツ310のシーンの少なくとも一部を含む。シークバー320上において、各マークは、そのタイミングに対応する位置に表示されている。コメントリスト330では、投稿されたコメントが時系列に並んで配置され、新たなコメントの投稿に伴って下から上に次々と流れるように表示される。動画コンテンツ310、シークバー320およびコメントリスト330は、1以上の視聴者端末30にも配信され、したがって、配信者および視聴者は同時にまたはほぼ同時にこれらの情報を共有する。 In this example, the content area 301 displays a live broadcast of a family's daily life as video content 310. Marks 341, 342, and 343 related to scenes in the video content 310, a scroller 321 indicating the current playback position of the video content 310, and a camera icon 322 are displayed on the seek bar 320. The marks are screenshot images, and include at least a part of the scene in the video content 310 corresponding to the timing at which the user operation to generate the mark was performed. On the seek bar 320, each mark is displayed at a position corresponding to that timing. In the comment list 330, posted comments are arranged in chronological order, and are displayed in a flowing manner from bottom to top as new comments are posted. The video content 310, the seek bar 320, and the comment list 330 are also distributed to one or more viewer terminals 30, and therefore the distributor and the viewer share this information simultaneously or almost simultaneously.

この例において、配信者が、新たなマーク344を生成するためのユーザ操作を行ったとする。ユーザ操作は、例えば、画面300に表示されているカメラアイコン322に対するタップまたはクリックでもよい。配信者端末20のマーキング要求部24はそのユーザ操作を受け付ける(ステップS106)。そしてマーキング要求部24は、そのユーザ操作の時刻を含むマーキング要求を生成し、そのマーキング要求をサーバ10に送信する(ステップS107)。サーバ10ではマーク制御部12が、そのマーキング要求に基づいてマークデータを生成し、そのマークデータを配信者端末20および視聴者端末30に送信する(ステップS110,S111)。配信者端末20では、マーク表示部25がそのマークデータに基づいてマーク344を画面300上に表示する(ステップS112)。マーク表示部25は、マーク341~343と同様の手法により、ユーザ操作が行われたタイミングに対応するシークバー320上の位置にマーク344を表示する。図5の例では、マーク344は、そのユーザ操作が行われたタイミングに対応する動画コンテンツ310のシーンの少なくとも一部を含むスクリーンショット画像である。 In this example, it is assumed that the distributor performs a user operation to generate a new mark 344. The user operation may be, for example, a tap or click on the camera icon 322 displayed on the screen 300. The marking request unit 24 of the distributor terminal 20 accepts the user operation (step S106). The marking request unit 24 then generates a marking request including the time of the user operation and transmits the marking request to the server 10 (step S107). In the server 10, the mark control unit 12 generates mark data based on the marking request and transmits the mark data to the distributor terminal 20 and the viewer terminal 30 (steps S110 and S111). In the distributor terminal 20, the mark display unit 25 displays the mark 344 on the screen 300 based on the mark data (step S112). The mark display unit 25 displays the mark 344 at a position on the seek bar 320 corresponding to the timing of the user operation using a method similar to that of the marks 341 to 343. In the example of FIG. 5, the mark 344 is a screenshot image that includes at least a portion of the scene of the video content 310 that corresponds to the timing at which the user operation was performed.

図6は、マークに対する視聴者の操作に応答した画面制御の一例を示す。この例では、視聴者端末30は、図5の例における配信者端末20の画面300と同様の画面400を表示する。画面400は、マウスなどのポインティングデバイスにより操作可能なポインタ303をさらに含む。 Figure 6 shows an example of screen control in response to a viewer's operation on a mark. In this example, the viewer terminal 30 displays a screen 400 similar to the screen 300 of the distributor terminal 20 in the example of Figure 5. The screen 400 further includes a pointer 303 that can be operated by a pointing device such as a mouse.

図6の例において、視聴者がマーク342にポインタ303を重ねてタップまたはクリックをしたとする。視聴者端末30の画面制御部32はそのユーザ操作を受け付け、画面400を制御する(ステップS115)。すなわち、画面制御部32は、マーク342に関連する動画コンテンツ310のシーンをコンテンツ領域301に表示し、そのシーンから動画コンテンツ310を再生する。また、画面制御部32はスクローラ321をマーク342の位置に移す。画面制御部32は、コメントリスト330の中のコメントを、動画コンテンツ310のシーンに連動して変化させてもよい。すなわち、画面制御部32は、コンテンツ領域301内のシーンに合わせてコメントリスト330を表示してもよい。 In the example of FIG. 6, assume that the viewer places the pointer 303 on the mark 342 and taps or clicks. The screen control unit 32 of the viewer terminal 30 accepts the user operation and controls the screen 400 (step S115). That is, the screen control unit 32 displays the scene of the video content 310 related to the mark 342 in the content area 301, and plays the video content 310 from that scene. The screen control unit 32 also moves the scroller 321 to the position of the mark 342. The screen control unit 32 may change the comments in the comment list 330 in conjunction with the scene of the video content 310. That is, the screen control unit 32 may display the comment list 330 in accordance with the scene in the content area 301.

図7は、マークに対する視聴者の操作に応答した画面制御の別の例を示す。この例でも、視聴者端末30は、図5の例における配信者端末20の画面300と同様の画面400を表示する。この例において、視聴者がマーク341にポインタ303を重ねたとする。視聴者端末30の画面制御部32はそのユーザ操作を受け付け、画面400を制御する(ステップS115)。一例として、画面制御部32は、マーク341を拡大して表示する(マーク341´)。更なる例として、画面制御部32は、マーク341に関連するシーンに対応するコメント331を、マーク341´とともに表示する。そのコメント331は、例えば、マーク341が生成された時点での動画コンテンツ310のシーンに対応する。コメント331は、マーク341が生成された時に実際に動画コンテンツ310とともに視聴者端末30に表示されていたコメントでもよい。あるいは、コメント331は、マーク341が生成された時に視聴者端末30に動画コンテンツ310が表示されていたならば表示されていたコメントでもよい。したがって、視聴者は、マーク341に関連するシーンより後の時点から動画コンテンツ310を視聴した場合にも、マーク341を操作してコメント331を確認できる。 7 shows another example of screen control in response to a viewer's operation on a mark. In this example, the viewer terminal 30 also displays a screen 400 similar to the screen 300 of the distributor terminal 20 in the example of FIG. 5. In this example, it is assumed that the viewer places the pointer 303 on the mark 341. The screen control unit 32 of the viewer terminal 30 accepts the user operation and controls the screen 400 (step S115). As an example, the screen control unit 32 enlarges and displays the mark 341 (mark 341'). As a further example, the screen control unit 32 displays a comment 331 corresponding to a scene related to the mark 341 together with the mark 341'. The comment 331 corresponds, for example, to a scene of the video content 310 at the time the mark 341 is generated. The comment 331 may be a comment that was actually displayed on the viewer terminal 30 together with the video content 310 when the mark 341 was generated. Alternatively, the comment 331 may be a comment that would have been displayed if the video content 310 had been displayed on the viewer terminal 30 when the mark 341 was generated. Therefore, even if a viewer starts watching video content 310 from a point after the scene related to mark 341, the viewer can operate mark 341 to check comment 331.

図7の例において、画面制御部32はマークとともに複数のコメントを表示してもよい。例えば、画面制御部32は該複数のコメントを同時に表示してもよいし、順次表示してもよい。あるいは、画面制御部32は、複数のコメントのうち、「いいね」などの反応が付けられたコメントを他のコメントより優先して表示してもよい。 In the example of FIG. 7, the screen control unit 32 may display multiple comments together with a mark. For example, the screen control unit 32 may display the multiple comments simultaneously or sequentially. Alternatively, the screen control unit 32 may display, among the multiple comments, comments that have received a response such as "Like" in preference to other comments.

図5~図7に示した例ではマークがシークバー320上に表示されるが、マークはシークバー以外の場所に表示されてもよい。図8はマーク表示の一例を示す図である。この図に示す視聴者端末30上の画面400Aは、図6および図7に示す画面400の変形であるといえる。画面400Aは、シークバー320に代えて、マーク341~344のような1以上のマークを表示するためのマーク領域323と、マーク領域323とは独立したシークバー324とを含む。マーク領域323は動画コンテンツ310の進行状況を示す役割を持たず、その役割はシークバー324が担う。シークバー324は、動画コンテンツ310の現在の再生位置を示すスクローラ325を含む。 In the examples shown in Figures 5 to 7, the mark is displayed on the seek bar 320, but the mark may be displayed in a location other than the seek bar. Figure 8 is a diagram showing an example of mark display. Screen 400A on the viewer terminal 30 shown in this figure can be said to be a modification of screen 400 shown in Figures 6 and 7. Screen 400A includes, instead of seek bar 320, a mark area 323 for displaying one or more marks such as marks 341 to 344, and a seek bar 324 independent of mark area 323. Mark area 323 does not have the role of indicating the progress of video content 310; that role is taken on by seek bar 324. Seek bar 324 includes a scroller 325 that indicates the current playback position of video content 310.

マーク341~344の表示位置は、マークが生成されたタイミングを示さなくてもよい。図8の例では、マーク表示部34は、マーク341~344を、それらのマークが生成された順にマーク領域323上に表示する。 The display positions of the marks 341 to 344 do not need to indicate the timing at which the marks were generated. In the example of FIG. 8, the mark display unit 34 displays the marks 341 to 344 in the mark area 323 in the order in which the marks were generated.

図5~図8の例に限定されず、コンテンツ管理システム1はマークを別の位置に表示してもよい。例えば、マーク制御部12は、ドラッグ・アンド・ドロップなどのユーザ操作によって指定された位置にマークを表示してもよい。 The content management system 1 may display the mark at a different position, without being limited to the examples in Figures 5 to 8. For example, the mark control unit 12 may display the mark at a position specified by a user operation such as drag and drop.

[ユーザ端末]
本開示の一側面に係るユーザ端末は、通信ネットワークを介して他端末と接続するユーザ端末であって、少なくとも一つのプロセッサを備える。少なくとも一つのプロセッサは、動画コンテンツを画面上に表示し、動画コンテンツが表示されている間に他端末において受け付けられたユーザ操作に応答して生成されたマークであって、該ユーザ操作のタイミングに対応する動画コンテンツのシーンに関連する該マークを、動画コンテンツと併せて画面上に表示する。すなわち、本開示の一側面に係るユーザ端末は、上述したコンテンツ管理システムにアクセス可能なユーザ端末を含む。この場合において、ユーザ端末および他端末は、第1端末(配信者端末20)または第2端末(視聴者端末30)のいずれでもよい。
[User terminal]
A user terminal according to an aspect of the present disclosure is a user terminal that is connected to other terminals via a communication network and includes at least one processor. The at least one processor displays video content on a screen, and displays a mark generated in response to a user operation received at the other terminal while the video content is being displayed, the mark being related to a scene of the video content corresponding to the timing of the user operation, together with the video content, on the screen. That is, the user terminal according to an aspect of the present disclosure includes a user terminal that can access the above-mentioned content management system. In this case, the user terminal and the other terminal may be either a first terminal (distributor terminal 20) or a second terminal (viewer terminal 30).

本開示の一側面に係るユーザ端末は、上記動作が可能なように製造されたユーザ端末、上記動作を可能にするプログラムがインストールされたユーザ端末、または上記動作を可能にするハードウェアが接続されたユーザ端末を含む。 A user terminal according to one aspect of the present disclosure includes a user terminal manufactured to be capable of the above-mentioned operations, a user terminal having a program installed that enables the above-mentioned operations, or a user terminal to which hardware that enables the above-mentioned operations is connected.

[変形例]
以上、本開示での様々な例を詳細に説明した。しかし、本開示は上記の例に限定されるものではない。本開示に関しては、その要旨を逸脱しない範囲で様々な変形が可能である。
[Modification]
Various examples of the present disclosure have been described in detail above. However, the present disclosure is not limited to the above examples. Various modifications of the present disclosure are possible without departing from the spirit and scope of the present disclosure.

マーク制御部12はユーザ操作を受け付けることなく、すなわちユーザ端末からのマーキング要求を受け付けることなく、予め設定された別のイベントに応答してマークを動的に制御してもよい。例えば、マーク制御部12は、動画コンテンツの所定のシーンが到来したことに応答して、該シーンに関連するマークを生成し、該マークを動画コンテンツと併せてユーザ端末上に表示してもよい。マーク制御部12は、動画コンテンツが表示されている間にユーザ端末で入力されたコメントの単位時間あたりの数(すなわち頻度)を計測し、当該コメントの頻度が所定の閾値に達したタイミングに対応する動画コンテンツのシーンに関連するマークを生成し、当該マークを動画コンテンツと併せてユーザ端末上に表示してもよい。マーク制御部12は、ユーザ端末間で所定のコメント(例えば所定の語句を含むコメント)またはギフトの送受信が発生したタイミングに対応する動画コンテンツのシーンに関連するマークを生成し、該マークを動画コンテンツと併せてユーザ端末上に表示してもよい。これらのような動的なマークの制御において、マーク制御部12はマークを配信者端末20および視聴者端末30の少なくとも一方において表示してもよい。 The mark control unit 12 may dynamically control the mark in response to another preset event without accepting a user operation, i.e., without accepting a marking request from the user terminal. For example, the mark control unit 12 may generate a mark related to a predetermined scene in the video content in response to the arrival of the scene, and display the mark on the user terminal together with the video content. The mark control unit 12 may measure the number of comments per unit time (i.e., frequency) input at the user terminal while the video content is being displayed, generate a mark related to a scene of the video content corresponding to the timing when the frequency of the comments reaches a predetermined threshold, and display the mark on the user terminal together with the video content. The mark control unit 12 may generate a mark related to a scene of the video content corresponding to the timing when a predetermined comment (e.g., a comment including a predetermined phrase) or a gift is sent or received between user terminals, and display the mark on the user terminal together with the video content. In such dynamic mark control, the mark control unit 12 may display the mark on at least one of the distributor terminal 20 and the viewer terminal 30.

上記の例ではコンテンツ管理システム1がサーバ10を備えるが、コンテンツ管理システムは、サーバを用いないユーザ端末間のコンテンツ配信に適用されてもよい。この場合には、サーバ10の各機能要素は、いずれかのユーザ端末に実装されてもよく、複数のユーザ端末に分かれて実装されてもよい。これに関連して、コンテンツ管理プログラムはクライアントプログラムとして実現されてもよい。コンテンツ管理システムはサーバを用いて構成されてもよいし、サーバを用いることなく構成されてもよい。すなわち、コンテンツ管理システムは、クライアント-サーバ方式によって実装されてもよく、クライアント-クライアント方式であるP2P(Peer to Peer)またはE2E(End to End)暗号化によって実装されてもよい。クライアント-クライアント方式では、コンテンツ配信の秘匿性が向上する。 In the above example, the content management system 1 includes a server 10, but the content management system may also be applied to content distribution between user terminals without using a server. In this case, each functional element of the server 10 may be implemented in one of the user terminals, or may be implemented separately in multiple user terminals. In this regard, the content management program may be realized as a client program. The content management system may be configured using a server, or may be configured without using a server. In other words, the content management system may be implemented using a client-server system, or may be implemented using P2P (Peer to Peer) or E2E (End to End) encryption, which is a client-client system. The client-client system improves the confidentiality of content distribution.

配信者端末20または視聴者端末30において動画コンテンツの表示態様が変化した場合に、マーク表示部25または34は、動画コンテンツとマークとの位置関係を維持するように該マークの表示位置を自動的に変更してもよい。動画コンテンツの表示態様の変化の例として、全画面表示と縮小表示との間の切り替えと、画面の向きが縦向きと横向きとの間で変化することに伴う動画コンテンツの変化とが挙げられる。あるいは、動画コンテンツの表示態様が変化した場合に、マーク表示部25または34は画面内の空き領域にマークを移動させてもよい。 When the display mode of the video content changes on the distributor terminal 20 or the viewer terminal 30, the mark display unit 25 or 34 may automatically change the display position of the mark so as to maintain the positional relationship between the video content and the mark. Examples of changes in the display mode of the video content include switching between full-screen display and reduced display, and changes in the video content that accompany a change in the screen orientation between portrait and landscape. Alternatively, when the display mode of the video content changes, the mark display unit 25 or 34 may move the mark to an empty area on the screen.

上記の例ではユーザ端末として配信者端末20および視聴者端末30を示すが、他の種類のユーザ端末が配信者端末20または視聴者端末30と同様の機能要素を備えてもよい。例えば、動画コンテンツを管理するモデレータによって用いられるコンピュータであるモデレータ端末がその機能要素を備えてもよい。 In the above example, a distributor terminal 20 and a viewer terminal 30 are shown as user terminals, but other types of user terminals may have the same functional elements as the distributor terminal 20 or the viewer terminal 30. For example, a moderator terminal, which is a computer used by a moderator who manages video content, may have the functional elements.

本開示において、「少なくとも一つのプロセッサが、第1の処理を実行し、第2の処理を実行し、…第nの処理を実行する。」との表現、またはこれに対応する表現は、第1の処理から第nの処理までのn個の処理の実行主体(すなわちプロセッサ)が途中で変わる場合を含む概念を示す。すなわち、この表現は、n個の処理のすべてが同じプロセッサで実行される場合と、n個の処理においてプロセッサが任意の方針で変わる場合との双方を含む概念を示す。 In this disclosure, the expression "at least one processor executes a first process, executes a second process, ... executes an nth process" or a corresponding expression indicates a concept including cases where the entity executing the n processes from the first process to the nth process (i.e., the processor) changes midway. In other words, this expression indicates a concept including both cases where all n processes are executed by the same processor and cases where the processor changes among the n processes according to an arbitrary policy.

少なくとも一つのプロセッサにより実行される方法の処理手順は上記実施形態での例に限定されない。例えば、上述したステップの一部が省略されてもよいし、別の順序で各ステップが実行されてもよい。また、上述したステップのうちの任意の2以上のステップが組み合わされてもよいし、ステップの一部が修正または削除されてもよい。あるいは、上記の各ステップに加えて他のステップが実行されてもよい。 The processing procedure of the method executed by at least one processor is not limited to the example in the above embodiment. For example, some of the steps described above may be omitted, or the steps may be executed in a different order. In addition, any two or more of the steps described above may be combined, or some of the steps may be modified or deleted. Alternatively, other steps may be executed in addition to the steps described above.

二つの数値の大小関係の比較では、「以上」および「よりも大きい」という二つの基準のどちらが用いられてもよく、「以下」および「未満」という二つの基準のうちのどちらが用いられてもよい。 When comparing the magnitude of two numbers, either of the two criteria "greater than or equal to" or "greater than" can be used, or either of the two criteria "less than or equal to" or "less than".

本明細書で述べた各機能要素の任意の一部または全部がプログラムによって実現されてもよい。本明細書で言及したプログラムは、コンピュータ読み取り可能な記録媒体に非一時的に記録して頒布されてもよいし、インターネットなどの通信回線(無線通信も含む)を介して頒布されてもよいし、任意の端末にインストールされた状態で頒布されてもよい。 Any part or all of the functional elements described in this specification may be realized by a program. The programs mentioned in this specification may be distributed by being non-temporarily recorded on a computer-readable recording medium, or may be distributed via a communication line (including wireless communication) such as the Internet, or may be distributed in a state where they are installed on any terminal.

上記の記載に基づいて、当業者であれば、本開示についての追加の効果または種々の変形例を想到できるかもしれないが、本開示の態様は、上述した個々の実施形態に限定されるものではない。特許請求の範囲に規定された内容およびその均等物から導き出される本開示の概念的な思想と趣旨とを逸脱しない範囲で、種々の追加、変更および部分的削除が可能である。 Based on the above description, a person skilled in the art may be able to conceive additional effects or various modifications of the present disclosure, but the aspects of the present disclosure are not limited to the individual embodiments described above. Various additions, modifications, and partial deletions are possible within the scope that does not deviate from the conceptual idea and intent of the present disclosure derived from the contents defined in the claims and their equivalents.

例えば、本明細書において1台の装置(あるいは部材。以下同じ)として説明される構成(これは、図面において1台の装置として描かれている構成を含む)が、複数の装置によって実現されもよい。あるいは、本明細書において複数の装置として説明される構成(これは、図面において複数の装置として描かれている構成を含む)が1台の装置によって実現されてもよい。あるいは、或る装置(例えばサーバ)に含まれる手段または機能の一部または全部が、他の装置(例えばユーザ端末)に含まれてもよい。 For example, a configuration described in this specification as one device (or component; the same applies below) (this includes a configuration depicted in the drawings as one device) may be realized by multiple devices. Alternatively, a configuration described in this specification as multiple devices (this includes a configuration depicted in the drawings as multiple devices) may be realized by one device. Alternatively, some or all of the means or functions included in a certain device (e.g., a server) may be included in another device (e.g., a user terminal).

本明細書に記載された事項のすべてが必須の要件というわけではない。例えば、本明細書に記載されているが特許請求の範囲に記載されていない事項は、任意の付加的事項ということができる。 Not all of the matters described in this specification are essential requirements. For example, matters described in this specification but not in the claims can be considered optional additional matters.

本出願人は本明細書の「先行技術文献」欄に記載された公知技術を知っているにすぎない。本開示は必ずしもその公知技術における課題を解決することを目的とするものではないことにも留意されたい。本開示において解決しようとする課題は、本明細書の全体を考慮して認定されるべきものである。例えば、本明細書において、特定の構成によって所定の効果を奏する旨の記載がある場合、当該所定の効果に対応する課題が解決されるということもできる。しかし、その効果に関する記載は必ずしも、そのような特定の構成を必須の要件とする趣旨ではない。 The applicant is only aware of the known technology described in the "Prior Art Documents" section of this specification. Please note that this disclosure is not necessarily intended to solve the problems in that known technology. The problems that this disclosure aims to solve should be identified taking into consideration this specification as a whole. For example, if this specification describes that a specific configuration produces a specific effect, it can also be said that the problem corresponding to that specific effect is solved. However, the description of that effect does not necessarily intend that such a specific configuration is an essential requirement.

[付記]
上記の様々な例から把握されるとおり、本開示は以下に示す態様を含む。
(付記1)
少なくとも一つのプロセッサを備え、
前記少なくとも一つのプロセッサが、
第1端末によって生成された動画コンテンツを第2端末上に表示し、
前記動画コンテンツが表示されている間に前記第1端末において受け付けられたユーザ操作に応答して、該ユーザ操作のタイミングに対応する前記動画コンテンツのシーンに関連するマークを生成し、
前記マークを前記動画コンテンツと併せて前記第2端末上に表示する、
コンテンツ管理システム。
(付記2)
前記少なくとも一つのプロセッサが、
前記第2端末において表示された前記マークに対するユーザ操作に応答して、前記第2端末上において、該マークに関連する前記シーンから前記動画コンテンツを再生する、
付記1に記載のコンテンツ管理システム。
(付記3)
前記少なくとも一つのプロセッサが、
前記動画コンテンツが表示されている間に前記第1端末または前記第2端末において入力されたコメントを、前記動画コンテンツと併せて前記第2端末上に表示し、
前記第2端末において表示された前記マークに対するユーザ操作に応答して、該マークに関連する前記シーンに対応する前記コメントを前記第2端末上に表示する、
付記1または2に記載のコンテンツ管理システム。
(付記4)
前記少なくとも一つのプロセッサが、
前記動画コンテンツの進行状況を表すシークバーを前記第2端末上に表示し、
前記マークを、前記ユーザ操作の前記タイミングに対応する前記シークバー上の位置に表示する、
付記1~3のいずれかに記載のコンテンツ管理システム。
(付記5)
前記少なくとも一つのプロセッサが、前記ユーザ操作の前記タイミングに対応する前記シーンの少なくとも一部を含むスクリーンショット画像を、前記マークとして生成する、
付記1~4のいずれかに記載のコンテンツ管理システム。
(付記6)
前記少なくとも一つのプロセッサが、
予め設定されたタイミングに対応する前記動画コンテンツの別シーンに関連する別マークを生成し、
前記別マークを前記動画コンテンツと併せて前記第2端末に表示する、
付記1~5のいずれかに記載のコンテンツ管理システム。
(付記7)
前記少なくとも一つのプロセッサが、
前記動画コンテンツが表示されている間に前記第1端末または前記第2端末において入力されたコメントを、前記動画コンテンツと併せて前記第2端末上に表示し、
前記コメントの頻度が所定の閾値に達したタイミングに対応する前記動画コンテンツのシーンに関連する別マークを生成し、
前記別マークを前記動画コンテンツと併せて前記第2端末上に表示する、
付記1~6のいずれかに記載のコンテンツ管理システム。
(付記8)
少なくとも一つのプロセッサを備えるコンテンツ管理システムによって実行されるコンテンツ管理方法であって、
第1端末によって生成された動画コンテンツを第2端末上に表示するステップと、
前記動画コンテンツが表示されている間に前記第1端末において受け付けられたユーザ操作に応答して、該ユーザ操作のタイミングに対応する前記動画コンテンツのシーンに関連するマークを生成するステップと、
前記マークを前記動画コンテンツと併せて前記第2端末上に表示するステップと、
を含むコンテンツ管理方法。
(付記9)
第1端末によって生成された動画コンテンツを第2端末上に表示するステップと、
前記動画コンテンツが表示されている間に前記第1端末において受け付けられたユーザ操作に応答して、該ユーザ操作のタイミングに対応する前記動画コンテンツのシーンに関連するマークを生成するステップと、
前記マークを前記動画コンテンツと併せて前記第2端末上に表示するステップと、
をコンピュータに実行させるコンテンツ管理プログラム。
(付記10)
通信ネットワークを介して他端末と接続するユーザ端末であって、
少なくとも一つのプロセッサを備え、
前記少なくとも一つのプロセッサが、
動画コンテンツを画面上に表示し、
前記動画コンテンツが表示されている間に前記他端末において受け付けられたユーザ操作に応答して生成されたマークであって、該ユーザ操作のタイミングに対応する前記動画コンテンツのシーンに関連する該マークを、前記動画コンテンツと併せて前記画面上に表示する、
ユーザ端末。
[Additional Notes]
As can be seen from the various examples above, the present disclosure includes the following aspects.
(Appendix 1)
At least one processor;
the at least one processor:
Displaying the video content generated by the first terminal on the second terminal;
In response to a user operation received at the first terminal while the video content is being displayed, a mark is generated that is associated with a scene of the video content that corresponds to a timing of the user operation;
displaying the mark together with the video content on the second terminal;
Content management system.
(Appendix 2)
the at least one processor:
In response to a user operation on the mark displayed on the second terminal, playing back the video content from the scene related to the mark on the second terminal.
2. The content management system of claim 1.
(Appendix 3)
the at least one processor:
displaying, on the second terminal, a comment inputted on the first terminal or the second terminal while the video content is being displayed, together with the video content;
displaying, on the second terminal, the comment corresponding to the scene related to the mark in response to a user operation on the mark displayed on the second terminal;
3. The content management system of claim 1 or 2.
(Appendix 4)
the at least one processor:
displaying a seek bar indicating a progress of the video content on the second terminal;
displaying the mark at a position on the seek bar corresponding to the timing of the user operation;
4. A content management system according to any one of claims 1 to 3.
(Appendix 5)
the at least one processor generates, as the mark, a screenshot image including at least a portion of the scene corresponding to the timing of the user operation;
5. A content management system according to any one of claims 1 to 4.
(Appendix 6)
the at least one processor:
generating a different mark associated with a different scene of the video content corresponding to a preset timing;
displaying the separate mark together with the video content on the second terminal;
6. A content management system according to any one of claims 1 to 5.
(Appendix 7)
the at least one processor:
displaying, on the second terminal, a comment inputted on the first terminal or the second terminal while the video content is being displayed, together with the video content;
generating a separate mark associated with a scene of the video content corresponding to a timing when the frequency of the comment reaches a predetermined threshold;
displaying the separate mark together with the video content on the second terminal;
7. A content management system according to any one of claims 1 to 6.
(Appendix 8)
1. A content management method performed by a content management system having at least one processor, comprising:
displaying the video content generated by the first terminal on the second terminal;
generating, in response to a user operation received at the first terminal while the video content is being displayed, a mark related to a scene of the video content corresponding to a timing of the user operation;
displaying the mark together with the video content on the second terminal;
Content management methods, including:
(Appendix 9)
displaying the video content generated by the first terminal on the second terminal;
generating, in response to a user operation received at the first terminal while the video content is being displayed, a mark related to a scene of the video content corresponding to a timing of the user operation;
displaying the mark together with the video content on the second terminal;
A content management program that causes a computer to execute the above.
(Appendix 10)
A user terminal that connects to other terminals via a communication network,
At least one processor;
the at least one processor:
Display video content on the screen
a mark generated in response to a user operation received at the other terminal while the video content is being displayed, the mark being related to a scene of the video content corresponding to a timing of the user operation, and the mark being displayed on the screen together with the video content;
User terminal.

付記1,8,9によれば、動画コンテンツが表示されている間に行われた第1端末でのユーザ操作に応答して、その操作に対応するシーンのマークが第2端末上に表示される。このマークにより、そのシーンに関する情報が、ユーザ操作を受け付けた第1端末とは別の第2端末に提供されるので、第2端末のユーザによるその情報へのアクセスを支援することができる。 According to Supplementary Notes 1, 8, and 9, in response to a user operation performed on a first terminal while video content is being displayed, a mark of a scene corresponding to the operation is displayed on a second terminal. This mark provides information about the scene to a second terminal other than the first terminal that accepted the user operation, thereby assisting the user of the second terminal in accessing the information.

付記10によれば、動画コンテンツが表示されている間に行われた他端末でのユーザ操作に応答して、その操作に対応するシーンのマークがユーザ端末上に表示される。このマークにより、そのシーンに関する情報が、ユーザ操作を受け付けた他端末とは別のユーザ端末上に提供されるので、ユーザ端末のユーザによるその情報へのアクセスを支援することができる。 According to supplementary note 10, in response to a user operation performed on another terminal while video content is being displayed, a mark of the scene corresponding to the operation is displayed on the user terminal. This mark provides information about the scene on a user terminal other than the other terminal that accepted the user operation, thereby helping the user of the user terminal to access the information.

付記2によれば、表示されたマークに対するユーザ操作に応答して、該マークに関連するシーンから動画コンテンツが再生される。この仕組みにより、特定のシーンへのアクセスを向上させるとともに、動画コンテンツをそのシーンから再び提供することができる。 According to Supplementary Note 2, in response to a user operation on a displayed mark, video content is played from a scene related to the mark. This mechanism improves access to a particular scene and allows video content to be provided again from that scene.

付記3によれば、マークに関連するシーンにおいて表示されていたコメントが、該マークに対するユーザ操作に応答して表示される。この仕組みにより、そのシーンにおける話題を提供することができる。 According to Supplementary Note 3, the comment that was displayed in the scene related to the mark is displayed in response to the user's operation on the mark. This mechanism makes it possible to provide topics of conversation in the scene.

付記4によれば、動画コンテンツの進行状況を表すシークバー上において、ユーザ操作のタイミングに対応する位置にマークが表示される。この仕組みにより、動画コンテンツにおける特定のシーンの位置を明確に示すことができる。その結果、動画コンテンツの特定のシーンに関する情報へのアクセスが一層向上する。 According to Supplementary Note 4, a mark is displayed on the seek bar, which indicates the progress of the video content, at a position corresponding to the timing of the user's operation. This mechanism makes it possible to clearly indicate the position of a particular scene in the video content. As a result, access to information about a particular scene in the video content is further improved.

付記5によれば、動画コンテンツのシーンを示すスクリーンショット画像がマークとして表示されるので、そのシーンに関する情報を視覚的に分かりやすく提供することができる。 According to Supplementary Note 5, a screenshot image showing a scene of video content is displayed as a mark, so information about that scene can be provided in a visually easy-to-understand manner.

付記6によれば、予め設定されたタイミングに対応するシーンに関連するマークが自動的に表示される。この仕組みにより、ユーザ操作を求めることなくマークを表示することができる。 According to Supplementary Note 6, a mark related to a scene corresponding to a preset timing is automatically displayed. This mechanism allows the mark to be displayed without requiring user operation.

付記7によれば、コメントの頻度が所定の閾値に達したタイミングでのシーンに関連するマークが自動的に表示される。この仕組みにより、動画コンテンツの視聴が盛り上がっている可能性の高いシーンに関する情報へのアクセスが向上する。 According to Supplementary Note 7, when the frequency of comments reaches a certain threshold, a mark related to the scene is automatically displayed. This mechanism improves access to information about scenes that are likely to be popular in video content.

1…コンテンツ管理システム、10…サーバ、11…コンテンツ転送部、12…マーク制御部、20…配信者端末、21…コンテンツ生成部、22…コンテンツ表示部、23…画面制御部、24…マーキング要求部、25…マーク表示部、30…視聴者端末、31…コンテンツ表示部、32…画面制御部、33…マーキング要求部、34…マーク表示部、40…ユーザデータベース、300,400,400A…画面、301…コンテンツ領域、310…動画コンテンツ、320,324…シークバー、321,325…スクローラ、322…カメラアイコン、323…マーク領域、330…コメントリスト、341~344…マーク、P1…サーバプログラム、P2…クライアントプログラム。 1...content management system, 10...server, 11...content transfer unit, 12...mark control unit, 20...distributor terminal, 21...content generation unit, 22...content display unit, 23...screen control unit, 24...marking request unit, 25...mark display unit, 30...viewer terminal, 31...content display unit, 32...screen control unit, 33...marking request unit, 34...mark display unit, 40...user database, 300, 400, 400A...screen, 301...content area, 310...video content, 320, 324...seek bar, 321, 325...scroller, 322...camera icon, 323...mark area, 330...comment list, 341-344...marks, P1...server program, P2...client program.

Claims (10)

少なくとも一つのプロセッサを備え、
前記少なくとも一つのプロセッサが、
配信者端末によって生成された動画コンテンツを視聴者端末上に表示し、
前記動画コンテンツが表示されている間に前記配信者端末において受け付けられた、配信者によるユーザ操作に応答して、該配信者によるユーザ操作のタイミングに対応する前記動画コンテンツのシーンに関連するマークを生成し、
前記マークを前記動画コンテンツと併せて前記視聴者端末上に表示する、
コンテンツ管理システム。
At least one processor;
the at least one processor:
Displaying the video content generated by the distributor terminal on the viewer terminal;
In response to a user operation by a distributor that is accepted at the distributor terminal while the video content is being displayed, a mark is generated that is associated with a scene of the video content that corresponds to a timing of the user operation by the distributor ;
displaying the mark together with the video content on the viewer terminal;
Content management system.
前記少なくとも一つのプロセッサが、
前記視聴者端末において表示された前記マークに対する、視聴者によるユーザ操作に応答して、前記視聴者端末上において、該マークに関連する前記シーンから前記動画コンテンツを再生する、
請求項1に記載のコンテンツ管理システム。
the at least one processor:
In response to a user operation by a viewer on the mark displayed on the viewer terminal, playing back the video content from the scene related to the mark on the viewer terminal.
The content management system of claim 1 .
前記少なくとも一つのプロセッサが、
前記動画コンテンツが表示されている間に前記配信者端末または前記視聴者端末において入力されたコメントを、前記動画コンテンツと併せて前記視聴者端末上に表示し、
前記視聴者端末において表示された前記マークに対する、視聴者によるユーザ操作に応答して、該マークに関連する前記シーンに対応する前記コメントを前記視聴者端末上に表示する、
請求項1または2に記載のコンテンツ管理システム。
the at least one processor:
displaying, on the viewer terminal, comments input at the distributor terminal or the viewer terminal while the video content is being displayed, together with the video content;
displaying , in response to a user operation by a viewer on the mark displayed on the viewer terminal, the comment corresponding to the scene related to the mark on the viewer terminal;
3. A content management system according to claim 1 or 2.
前記少なくとも一つのプロセッサが、
前記動画コンテンツの進行状況を表すシークバーを前記視聴者端末上に表示し、
前記マークを、前記配信者によるユーザ操作の前記タイミングに対応する前記シークバー上の位置に表示する、
請求項1または2に記載のコンテンツ管理システム。
the at least one processor:
displaying a seek bar indicating a progress of the video content on the viewer terminal;
displaying the mark at a position on the seek bar corresponding to the timing of the user operation by the distributor ;
3. A content management system according to claim 1 or 2.
前記少なくとも一つのプロセッサが、前記配信者によるユーザ操作の前記タイミングに対応する前記シーンの少なくとも一部を含むスクリーンショット画像を、前記マークとして生成する、
請求項1または2に記載のコンテンツ管理システム。
The at least one processor generates, as the mark, a screenshot image including at least a portion of the scene corresponding to the timing of the user operation by the distributor .
3. A content management system according to claim 1 or 2.
前記少なくとも一つのプロセッサが、
予め設定されたタイミングに対応する前記動画コンテンツの別シーンに関連する別マークを生成し、
前記別マークを前記動画コンテンツと併せて前記視聴者端末に表示する、
請求項1または2に記載のコンテンツ管理システム。
the at least one processor:
generating a different mark associated with a different scene of the video content corresponding to a preset timing;
displaying the separate mark together with the video content on the viewer terminal;
3. A content management system according to claim 1 or 2.
前記少なくとも一つのプロセッサが、
前記動画コンテンツが表示されている間に前記配信者端末または前記視聴者端末において入力されたコメントを、前記動画コンテンツと併せて前記視聴者端末上に表示し、
前記コメントの頻度が所定の閾値に達したタイミングに対応する前記動画コンテンツのシーンに関連する別マークを生成し、
前記別マークを前記動画コンテンツと併せて前記視聴者端末上に表示する、
請求項1または2に記載のコンテンツ管理システム。
the at least one processor:
displaying, on the viewer terminal, comments input at the distributor terminal or the viewer terminal while the video content is being displayed, together with the video content;
generating a separate mark associated with a scene of the video content corresponding to a timing when the frequency of the comment reaches a predetermined threshold;
displaying the separate mark together with the video content on the viewer terminal;
3. A content management system according to claim 1 or 2.
少なくとも一つのプロセッサを備えるコンテンツ管理システムによって実行されるコンテンツ管理方法であって、
配信者端末によって生成された動画コンテンツを視聴者端末上に表示するステップと、
前記動画コンテンツが表示されている間に前記配信者端末において受け付けられた、配信者によるユーザ操作に応答して、該配信者によるユーザ操作のタイミングに対応する前記動画コンテンツのシーンに関連するマークを生成するステップと、
前記マークを前記動画コンテンツと併せて前記視聴者端末上に表示するステップと、
を含むコンテンツ管理方法。
1. A content management method performed by a content management system having at least one processor, comprising:
displaying the video content generated by the distributor terminal on a viewer terminal;
generating a mark related to a scene of the video content corresponding to a timing of a user operation by the distributor in response to the user operation by the distributor that is accepted at the distributor terminal while the video content is being displayed;
displaying the mark together with the video content on the viewer terminal;
Content management methods, including:
配信者端末によって生成された動画コンテンツを視聴者端末上に表示するステップと、
前記動画コンテンツが表示されている間に前記配信者端末において受け付けられた、配信者によるユーザ操作に応答して、該配信者によるユーザ操作のタイミングに対応する前記動画コンテンツのシーンに関連するマークを生成するステップと、
前記マークを前記動画コンテンツと併せて前記視聴者端末上に表示するステップと、
をコンピュータに実行させるコンテンツ管理プログラム。
displaying the video content generated by the distributor terminal on a viewer terminal;
generating a mark related to a scene of the video content corresponding to a timing of a user operation by the distributor in response to the user operation by the distributor that is accepted at the distributor terminal while the video content is being displayed;
displaying the mark together with the video content on the viewer terminal;
A content management program that causes a computer to execute the above.
サーバを介して配信者端末と接続するユーザ端末であって、
少なくとも一つのプロセッサを備え、
前記少なくとも一つのプロセッサが、
前記配信者端末によって生成された動画コンテンツを画面上に表示し、
前記動画コンテンツが表示されている間に前記配信者端末において受け付けられた、配信者によるユーザ操作に応答して、前記サーバによって生成されたマークであって、該配信者によるユーザ操作のタイミングに対応する前記動画コンテンツのシーンに関連する該マークを、前記動画コンテンツと併せて前記画面上に表示する、
ユーザ端末。
A user terminal that is connected to a distributor terminal via a server ,
At least one processor;
the at least one processor:
Displaying the video content generated by the distributor terminal on a screen;
a mark generated by the server in response to a user operation by a distributor accepted at the distributor terminal while the video content is being displayed, the mark being related to a scene of the video content corresponding to the timing of the user operation by the distributor , and displayed on the screen together with the video content;
User terminal.
JP2023043297A 2023-03-17 2023-03-17 Content management system, content management method, content management program, and user terminal Active JP7469536B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023043297A JP7469536B1 (en) 2023-03-17 2023-03-17 Content management system, content management method, content management program, and user terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023043297A JP7469536B1 (en) 2023-03-17 2023-03-17 Content management system, content management method, content management program, and user terminal

Publications (1)

Publication Number Publication Date
JP7469536B1 true JP7469536B1 (en) 2024-04-16

Family

ID=90667722

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023043297A Active JP7469536B1 (en) 2023-03-17 2023-03-17 Content management system, content management method, content management program, and user terminal

Country Status (1)

Country Link
JP (1) JP7469536B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005267033A (en) 2004-03-17 2005-09-29 Canon Inc Mixed reality video storage retrieval method and device
JP2007208340A (en) 2006-01-30 2007-08-16 Makani Networks Co Ltd Content management system, management server, content management method, and program
JP2017017444A (en) 2015-06-29 2017-01-19 キヤノン株式会社 Imaging device, control method thereof, program, and system
JP2020109896A (en) 2018-12-29 2020-07-16 株式会社anchor Video distribution system
JP2020129844A (en) 2020-05-21 2020-08-27 キヤノンマーケティングジャパン株式会社 Server, control method therefor, and program
JP2021106378A (en) 2019-12-26 2021-07-26 株式会社ドワンゴ Content distribution system, content distribution method, and content distribution program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005267033A (en) 2004-03-17 2005-09-29 Canon Inc Mixed reality video storage retrieval method and device
JP2007208340A (en) 2006-01-30 2007-08-16 Makani Networks Co Ltd Content management system, management server, content management method, and program
JP2017017444A (en) 2015-06-29 2017-01-19 キヤノン株式会社 Imaging device, control method thereof, program, and system
JP2020109896A (en) 2018-12-29 2020-07-16 株式会社anchor Video distribution system
JP2021106378A (en) 2019-12-26 2021-07-26 株式会社ドワンゴ Content distribution system, content distribution method, and content distribution program
JP2020129844A (en) 2020-05-21 2020-08-27 キヤノンマーケティングジャパン株式会社 Server, control method therefor, and program

Similar Documents

Publication Publication Date Title
US11050701B2 (en) System and method of embedding rich media into text messages
CN110945840B (en) Method and system for providing embedded application associated with messaging application
US8244830B2 (en) Linking users into live social networking interactions based on the users' actions relative to similar content
JP5759989B2 (en) Selective content accessibility in social networks
US11216166B2 (en) Customizing immersive media content with embedded discoverable elements
US20140289611A1 (en) System and method for end users to comment on webpage content for display on remote websites
KR20150132074A (en) Method for organising content
KR20080089573A (en) System, method, and computer program product for concurrent collaboration of media
US20170005957A1 (en) Methods and systems for virtual collaboration
JP7469536B1 (en) Content management system, content management method, content management program, and user terminal
CN114846808B (en) Content distribution system, content distribution method, and storage medium
JP7375241B1 (en) Content management system, content management method, content management program, and user terminal
JP7171964B1 (en) Content delivery system, content delivery method, and content delivery program
JP7367258B1 (en) Information processing system, information processing method, information processing program, and distributor terminal
JP2020042636A (en) Information display program, information display device, information display method, and delivery device
KR20190032754A (en) A layer sharing system in which the screen is displayed uniformly using the same coordinate interval regardless of the device size
JP4842236B2 (en) Information distribution system, information terminal, and information distribution method
CN117980939A (en) Collaborative advertising mechanism
KR20190032750A (en) A layer sharing system with the screen into display identically regardless of device size
JP2020061102A (en) Artificial intelligence related moving image sharing system, method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230317

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230828

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240404

R150 Certificate of patent or registration of utility model

Ref document number: 7469536

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150