WO2019090653A1 - 一种视频直播的方法、装置和*** - Google Patents

一种视频直播的方法、装置和*** Download PDF

Info

Publication number
WO2019090653A1
WO2019090653A1 PCT/CN2017/110341 CN2017110341W WO2019090653A1 WO 2019090653 A1 WO2019090653 A1 WO 2019090653A1 CN 2017110341 W CN2017110341 W CN 2017110341W WO 2019090653 A1 WO2019090653 A1 WO 2019090653A1
Authority
WO
WIPO (PCT)
Prior art keywords
event
video
live
time
server
Prior art date
Application number
PCT/CN2017/110341
Other languages
English (en)
French (fr)
Inventor
肖融
Original Assignee
腾讯科技(深圳)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 腾讯科技(深圳)有限公司 filed Critical 腾讯科技(深圳)有限公司
Priority to PCT/CN2017/110341 priority Critical patent/WO2019090653A1/zh
Priority to CN201780055514.9A priority patent/CN110024412B/zh
Publication of WO2019090653A1 publication Critical patent/WO2019090653A1/zh

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2387Stream processing in response to a playback request from an end-user, e.g. for trick-play

Definitions

  • the embodiments of the present invention relate to the field of Internet technologies, and in particular, to a method, an apparatus, and a system for video live broadcast.
  • Live broadcast refers to the way to simultaneously produce and publish information along with the occurrence and development of events, including live broadcasts, studio interview live broadcasts, live text pictures, live video and audio, or live broadcasts from sources provided by third parties. Wait. Live content can include sports events, evenings, conferences, celebrations, and more.
  • Live broadcast if the user needs to look back at the events that have just occurred, such as goals in a football match, penalty kicks, etc., dunks, blocks, etc. in a basketball game, you can only manually drag back to the viewing axis (also known as the playback progress). Strip, progress bar) to find, can not quickly locate the location of the event on the playback progress bar.
  • the embodiment of the present application provides a method, an apparatus, and a system for video live broadcast, which can provide annotation data of a live event, so that an event node that has occurred can be marked on the live broadcast back axis, and the present embodiment is presented in an intuitive form. Events in the live broadcast.
  • a method for video live broadcast may be applied to a video clip server, and the method includes:
  • the description information of an acquired event determines the playing time of the event, and the playing time of the event is provided to the video live server, and the playing time of the event is provided by the video live server to the live stream receiving the video program.
  • a client for marking the event in a play progress bar of the video program in the client is provided.
  • a method for video live broadcast can be applied to a video client, and the method includes:
  • a method for video live broadcast can be applied to a video live broadcast system, and the method includes:
  • the video clip server acquires description information of one or more events associated with the live video program, wherein the description information of an event includes an occurrence time of the event; and the description information of the acquired event is based on The time of occurrence of the event in the description information determines a play time of the event, and the play time of the event is provided to the video live broadcast server;
  • the live video server obtains the live media stream of the video program, and provides the video client to the video client to play; the play time of the event is provided to the video client;
  • the video client plays a live media stream of the video program, and marks the event in a play progress bar of the video program according to a play time of the event.
  • a video live broadcast system may include: a video clip server, a video live server, and a video client;
  • the live video server is configured to obtain a live media stream of the video program. And providing the video client to play; providing the playing time of the event to the video client; and
  • the video client is configured to play a live media stream of the video program, and mark the event in a play progress bar of the video program according to a play time of the event.
  • Embodiments of the present application also provide a computer readable storage medium storing computer readable instructions.
  • the instructions When configured to correspond to a device in the live video system of the present application, the instructions may be executed by the processor to perform a processing flow of the device in each embodiment.
  • the information of the event in the real scene corresponding to the current live content is obtained in real time, and is processed into the annotation data and provided to the client, which may be marked on the live broadcast back axis during the live broadcast process.
  • the event node that has occurred presenting the events in this live broadcast in an intuitive form.
  • FIG. 1b and 1c are flowcharts of a video live broadcast method of a video live broadcast system according to an embodiment of the present application
  • FIGS. 2a and 2b are flowcharts of a video live broadcast method of a video clip server according to an embodiment of the present application
  • 2c is a schematic structural diagram of a video clip server according to an embodiment of the present application.
  • the video client 13 refers to a device or a program for requesting a video live broadcast service to the video service system 11 and presenting the live video screen on the user interface.
  • video client 13 may be a web application running in a terminal device, such as a browser, and the like.
  • video client 13 may be specifically designed for use with video services
  • the system 11 communicates to obtain video data applications, such as dedicated video apps, and so on.
  • the video live broadcast platform 11 may include a video clip server 15 and a video live broadcast server 16.
  • video clip server 15, video live server 16 may each include one or more physical devices (eg, computing devices).
  • the live video server 16 can obtain the live media stream of the video program and provide it to the video client 13 for playing; and provide the playing time of the event to the video client.
  • the video client 13 can play the live media stream of the video program, and determine a location corresponding to the play time in the play progress bar of the video program according to the play time of the event, and display the location for indicating the location A prompt message to mark the event.
  • the live video program may refer to a live video program of some activity currently in progress.
  • the activities mentioned here can include sports events, parties, conferences, celebrations, etc.
  • the events associated with the video program may refer to goals, substitutions, fouls, start of a game, etc. in the sports event, the start of a certain program in the party, the issuance of an award, the speech of someone in the meeting, and so on.
  • the description information of an event may refer to information used to describe various characteristics of an event, such as information describing the time, location, related person, event content, and the like of the event.
  • the description information can be unstructured data, such as text, or structured data, such as data with multiple fields stored in a preset format, data structures, databases, files in a markup language (such as XML, HTML). ,Wait. Description of the event Obtained by a predetermined route.
  • the description information can be obtained from a preset network device (such as a database of a data service provider, a device of an event organizer, etc.).
  • the video live broadcast platform 11 may periodically or irregularly access the network device to read event description information.
  • the description information of the event may be pushed to the live broadcast platform 11 by the network device in real time after the event occurs. In other embodiments, the video live broadcast platform 11 can also obtain the description information manually input.
  • the time at which the event occurs may refer to the time at which the event occurred during the live event, that is, the time at which the live data of the event was collected.
  • the occurrence time may include time relative to a certain point in time, the Mth minute of the first half, etc., and/or absolute time, such as 15:30 on May 8, 2017, and the like.
  • the playing time of the event may refer to the time when the video content corresponding to the event is displayed to the user during the live broadcast.
  • the method of extracting the occurrence time of the event from the description information may be determined according to the form of the description information. For example, when the description information is text, the occurrence time of the event may be extracted by analyzing the text; when the description information is structured data in a preset format, the occurrence time of the event may be extracted from the preset field.
  • the configuration of the video live broadcast platform 11 shown in FIG. 1a is only used to explain the function of the video live broadcast platform 11, and is not intended to limit the video live broadcast platform 11 to the structural framework.
  • the video live broadcast platform 11 can also be implemented by other devices in different organizational manners.
  • FIG. 1b is a flowchart of a method for video live broadcast of a live video system according to an embodiment of the present application.
  • the execution order of each method step is not fixed. In different cases, for example, the frequency of occurrence of the event and the time when the client accesses the live broadcast may be different, and the execution order of each step is adjusted according to actual conditions.
  • the live video method may include the following steps.
  • Step S101 The video live broadcast server acquires and stores live media data of the video program from the data source. This step can be continuously performed during the live broadcast.
  • Step S102 The video client requests live broadcast data of the video program from the video live server.
  • Step S103 The video live server provides the live media stream of the video program to the video client.
  • video data is transmitted to the client as a stream of media data. As long as the client does not quit the live broadcast, it will continue to receive subsequent video data of the live broadcast.
  • step S103a the client plays the live media stream in the user interface.
  • Step S104a the video clip server acquires description information of at least one event associated with the live video program, and determines a play time of the event.
  • step S105a the video clip server sends the event information to the live video server.
  • the event information can include the play time of the event. In some embodiments, the event information may also include other information about the event, such as type, text description, time of occurrence, person involved, and the like.
  • step S106a the video live server stores the received event information locally.
  • step S108a the video live server pushes the received event information to the video client that receives the video program.
  • the above calibration can be performed by acquiring the deviation between the occurrence time of the scene and the playing time (that is, the deviation between the playing time and the collecting time of the content in the live broadcast, which is simply referred to as the live broadcast delay).
  • the live broadcast delay of the video program can be obtained, and the play time of the event is determined according to the live broadcast delay and the occurrence time of the event.
  • the live broadcast delay may be a deviation of the play time of the video program from the acquisition time.
  • 2b is a video in the embodiment of the present application
  • Step S31 Obtain description information of a preset event in the video program.
  • Step S32 Acquire an occurrence time of the preset event from the description information of the preset event.
  • Step S33 Acquire a play time of the preset event.
  • Step S34 The time difference between the occurrence time of the preset event and the playing time is used as a live broadcast delay.
  • Step S35 Determine, for the first event associated with the video program, a play time of the event according to the live broadcast delay and the occurrence time of the first event.
  • the event type that does not need to be stored may also be preset, and when the type of the event does not belong to one of the preset event types that are not required to be stored, the video clip server 15 may perform the storage of the annotation data of the event to The step in the data storage device, that is, when the type of the event is one of preset event types that do not need to be stored, the annotation data of the event is not stored.
  • other event screening criteria may also be employed, using event types for illustration only.
  • video clip server 15 may cull events that have been stored in data storage device 17 while storing new annotation data.
  • the annotation data of the event includes the type of the event
  • the stored annotation data may be eliminated by using the type of the event and the priority corresponding to each type of the preset.
  • the event is acquired according to a preset relationship between the event type and the priority (ie, a new waiting The priority corresponding to the type of the stored event) is taken as the priority of the event.
  • the annotation data of the event is stored into the data storage device, and The annotation data of the at least one event is deleted in the data storage device.
  • at least one event having a lower priority than the event to be stored may refer to all of the stored events, all events having a lower priority than the event, or one of all events lower than the priority of the event. Or multiple events.
  • priorities of the multiple events are the same, events with a shorter playing time (ie, newer) may be retained.
  • all events lower than the priority of the event may be deleted, or only the same number of events to be stored may be deleted.
  • the video clip server 15 may include a processor 21, a memory 23, and a network interface 27.
  • the memory 23 includes an operating system 24, a network communication module 25, and an annotation module 26.
  • the labeling module 26 can include: an obtaining module 261, a time extracting module 262, a time adjusting module 264, and an annotation providing module 265.
  • the obtaining module 261 can acquire description information of an event associated with the video program currently being broadcasted.
  • the time extraction module 262 can extract the time of occurrence of the event from the description information.
  • the time adjustment module 764 can determine the play time of the event according to the occurrence time of the event.
  • the annotation providing module 765 can provide the play time of the event to the live video server.
  • the annotation module 26 can also include a delay acquisition module 263.
  • the delay acquisition module 263 can acquire a live broadcast delay of the video program.
  • the data acquisition server 14 may determine at least one piece of description information of the event according to the original description data, the at least one piece of description information including a time of occurrence of the event, and the determined description information and the video program to which the event belongs The logo is provided to the video clip server 15.
  • data acquisition server 14 may extract the type of event and the time of occurrence of the event from the original description data.
  • the event type and the occurrence time of the event can be obtained by analyzing the text or by reading the corresponding field of the structured data.
  • the data acquisition server 14 may also obtain a preset icon material associated with the event type.
  • different event types may be pre-configured with corresponding icon material for annotating events of that type.
  • the icon material may be an icon representing a soccer ball; when the event type is a red card, the icon material may be a red rectangle representing a red card.
  • the data acquisition server 14 can provide the description information including the event type, the occurrence time of the event, and the icon material to the video clip server 15.
  • the video clip server 15 may determine whether to provide the play time and the icon material of the event to the client according to the event type, so that the client corresponds to the play progress bar.
  • the location of the play time displays the icon material to mark the event.
  • the at least one description information provided by the data acquisition server 14 may further include a description text of the event. The descriptive text can be extracted from the original description data.
  • FIG. 3 is a schematic structural diagram of a video client according to an embodiment of the present application.
  • the video client 13 can include a processor 31, a memory 33, a display device 38, and a network interface 37.
  • the memory 33 includes an operating system 34, a network communication module 35, and a video playback module 36.
  • the video playing module 36 may include: a live stream playing module 361 and an event labeling module 362.
  • FIG. 3b is a flowchart of a method for providing annotation data according to an embodiment of the present application. Such as shown in FIG. 3b, the method 40 can include the following steps.
  • the video client 13 can pull the annotation data from the live video server 16 at predetermined time intervals.
  • the video broadcast server 16 may be queried at a preset time interval for whether the video program has annotation data of an unacquired event; when it is determined that there is an annotation data of an unacquired event, the video live server is not pulled.
  • the annotation data of the acquired event the annotation data including the playing time of the event.
  • the video live server 16 may push the annotation data to the client at predetermined time intervals or when there is updated annotation data.
  • the video client 13 can acquire the annotation data using data communication based on the HTTP interface.
  • Step S43 for the playing time of the acquired event, the event labeling module 362 may determine a location corresponding to the playing time in the playing progress bar of the video program, and display prompt information for indicating the location. Label the event.
  • the video client 13 can display the prompt information of the event anywhere in the user interface of the live video.
  • the video client 13 may present the prompt information of the event in the form of a list of information in the sidebar.
  • the video client 13 may scroll the presentation information of each event in the form of subtitles.
  • the video client 13 can display the indicia directly at the location of the playback time of the corresponding event in the playback progress bar.
  • FIG. 2b is a schematic diagram of a user interface of a live video broadcast according to an embodiment of the present application. In the play progress bar 21, the video client 13 uses the flag 44 to indicate the current live broadcast progress, and uses the markers 42, 43 to indicate the location of the two events that have occurred in the live broadcast.
  • the annotation data may include information of the icon material, such as image data of the icon material, a unique identifier of the icon material, a URL of the icon material, and the like; the video client 13 may obtain the icon material by using the acquired information of the icon material. In other examples, the video client 13 may acquire the icon material corresponding to the event from the video live server.
  • FIG. 3 is a schematic diagram of a live broadcast play interface according to an embodiment of the present application. As shown in FIG. 3d, as the video program (e.g., a football game) progresses, in addition to the currently broadcast progress flag 44, the progress bar 41 displays some hint information (in this example, an icon). Different icons represent different event types, such as first half game start 411, red card 412, goal 413, first half game end 414, second half game start 415, substitution 416, and the like.
  • the video client 13 may present relevant information of the event corresponding to the prompt information in the user interface.
  • the information of the presented event may include, but is not limited to, the time of occurrence of the event, the person involved, the description text, the representative image, and the like.
  • the description text of the event can be obtained from the annotation data of the event.
  • the representative image of the event may be intercepted by the client from the live broadcast content of the video (for example, a frame image corresponding to the playback time of the event), and the image or the thumbnail of the image is directly used as a representative image of the event.
  • the video client 13 may display the play time 47, the screenshot 46, and the description text 48 of the event corresponding to the prompt information on the play interface (eg, "C Ronald penalty point” The ball breaks the door"), so that users can quickly understand the content of the event.
  • the prompt information e.g, mouse hovering, etc.
  • video playback module 36 may be implemented by computer readable instructions, that is, as computer readable instructions corresponding to modules 361 and 362 described above. These instructions may cause processor 31 to perform the operations of the video client of various embodiments of the present application.
  • the video live broadcast platform 11 may provide the video client with information of events matching the user information according to the user information associated with the video client 13.
  • the video live server 16 can determine the user tag according to the information of the video client 13, determine the tag data of the at least one event matching the user tag in the data storage device 17, and provide the tag data of the at least one event to the video. Client 13.
  • the video live broadcast server 16 may obtain the user identifier from the event acquisition request sent by the video client 13 or obtain the user identifier corresponding to the video client from the correspondence between the stored video client and the user identifier, and then The user label corresponding to the user identifier is obtained from the user database.
  • video client 13 may determine the user's user tag and add the user tag to the event acquisition request; video live server 16 may obtain the user tag from the event acquisition request.
  • the video live server 16 may determine a user tag according to the event acquisition request, and determine, in the data storage device 17, annotation data of at least one event that matches the user tag, Annotation data for at least one event is provided to the client.
  • the data acquisition server 14 may acquire a plurality of original description information of the same event from one or more data sources, extract a plurality of description texts therefrom, and provide the description information of the event together with the occurrence time of the event to the video clip.
  • Multiple pieces of descriptive text for the same event may be text that describes the event in a different manner. Different ways may include, but are not limited to, different preferences, different languages, different perspectives, different description styles, and the like.
  • the video clip server 15 may extract a plurality of description texts from the description information, and add a description vector composed of the plurality of description texts to the annotation data.
  • the data acquisition server 14 may extract the tag information of each description text from the original description information, or determine the tag information describing the text according to the data source of the description text.
  • the data acquisition server 14 can provide the plurality of description texts of the event and the tag information of each description text to the video clip server 15.
  • the video clip server 15 adds this information to the tag data of the event.
  • the video client 13 may determine a user tag of the local user, look up the description text matching the user tag in the tag information of the plurality of description texts, and display the description text matching the user tag.
  • the video client 13 may also display multiple description texts of the same event in turn, for example, at predetermined time intervals, along with description texts of other events.
  • the timing at which the video client 13 displays the description text of the event may include: responding to the operation of the prompt information in the play progress bar, or in response to the acquisition of the description text, or in response to the live broadcast of the video program Ok.
  • the hardware modules in the embodiments may be implemented in a hardware manner or a hardware platform plus software.
  • the above software includes machine readable instructions stored in a non-volatile storage medium.
  • embodiments can also be embodied as software products.
  • the hardware can be made up of specialized hardware or hardware that executes machine readable instructions.
  • the hardware can be a specially designed permanent circuit or logic device (such as a dedicated processor such as an FPGA or ASIC) for performing a particular operation.
  • the hardware may also include programmable logic devices or circuits (such as including general purpose processors or other programmable processors) that are temporarily configured by software for performing particular operations.
  • the machine readable instructions corresponding to the modules in the figures may cause an operating system or the like operating on a computer to perform some or all of the operations described herein.
  • the non-transitory computer readable storage medium may be inserted into a memory provided in an expansion board within the computer or written to a memory provided in an expansion unit connected to the computer.
  • the CPU or the like installed on the expansion board or the expansion unit can perform part and all of the actual operations according to the instructions.
  • the non-transitory computer readable storage medium includes a floppy disk, a hard disk, a magneto-optical disk, an optical disk (such as a CD-ROM, a CD-R, a CD-RW, a DVD-ROM, a DVD-RAM, a DVD-RW, a DVD+RW), and a magnetic tape. , non-volatile memory card and ROM.
  • the program code can be downloaded from the server computer by the communication network.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

本发明公开了一种视频直播的方法、装置和***。该方法包括:获取正在直播的视频节目关联的一个或多个事件的描述信息,其中,一个事件的所述描述信息包括所述事件的发生时间;对于获取到的一个事件的所述描述信息,根据所述描述信息中所述事件的发生时间确定所述事件的播放时间,将所述事件的播放时间提供给所述视频直播服务器,所述事件的播放时间由视频直播服务器提供给接收所述视频节目的直播流的客户端,用于在所述客户端中所述视频节目的播放进度条中标注所述事件。

Description

一种视频直播的方法、装置和*** 技术领域
本申请实施例涉及互联网技术领域,特别涉及一种视频直播的方法、装置和***。
背景
随着互联网技术的普及,越来越多的人以视频直播的方式观看喜欢的直播内容。直播是指在现场随着事件的发生、发展进程同步制作和发布信息的方式,可包括现场直播、演播室访谈式直播、文字图片直播、视音频直播,或由第三方提供信源的直播,等。直播的内容可以包括体育赛事、晚会、会议、庆典等。在直播过程中,如果用户需要回看刚刚发生的事件,例如足球比赛中的进球、点球等,篮球比赛中的扣篮、盖帽等,只能手动拖动回看轴(也称为播放进度条,progress bar)来查找,无法快速定位事件在播放进度条上的位置。
技术内容
有鉴于此,本申请实施例提供了一种视频直播的方法、装置和***,可以提供直播事件的标注数据,使得直播回看轴上可以标示出已发生的事件节点,以直观的形式呈现本次直播中的事件。
根据本申请实施例,一种视频直播的方法可以应用于视频剪辑服务器,所述方法包括:
获取正在直播的视频节目关联的一个或多个事件的描述信息,其中,一个事件的所述描述信息包括所述事件的发生时间;
对于获取到的一个事件的所述描述信息,根据所述描述信息 中所述事件的发生时间确定所述事件的播放时间,将所述事件的播放时间提供给所述视频直播服务器,所述事件的播放时间由视频直播服务器提供给接收所述视频节目的直播流的客户端,用于在所述客户端中所述视频节目的播放进度条中标注所述事件。
根据本申请实施例,一种视频直播的方法可以应用于视频客户端,所述方法包括:
接收来自视频直播服务器的一视频节目的直播媒体流;
根据所述直播媒体流播放所述视频节目的直播画面;
从所述视频直播服务器获取与所述视频节目关联的一个或多个事件的播放时间;
对于获取到的一个事件的所述播放时间,确定所述视频节目的播放进度条中所述播放时间对应的位置,并展示用于指示所述位置的提示信息以标注所述事件。
根据本申请实施例,一种视频剪辑服务器可以包括:处理器和存储器,所述存储器中存储有计算机可读指令,可以使所述处理器:
获取正在直播的视频节目关联的一个或多个事件的描述信息,其中,一个事件的所述描述信息包括所述事件的发生时间;
对于获取到的一个事件的所述描述信息,根据所述描述信息中所述事件的发生时间确定所述事件的播放时间,将所述事件的播放时间发送给所述视频直播服务器,所述事件的播放时间由所述视频直播服务器发送给接收所述视频节目的直播流的客户端,用于在所述客户端中所述视频节目的播放进度条中标注所述事件。
根据本申请实施例,一种视频客户端可以包括:处理器和存储器,所述存储器中存储有计算机可读指令,可以使所述处理器:
接收来自视频直播服务器的一个视频节目的直播媒体流;
根据所述直播媒体流播放所述视频节目的直播画面;
从所述视频直播服务器实时获取与所述视频节目关联的一个或多个事件的播放时间;
对于获取到的一个事件的所述播放时间,确定所述视频节目的播放进度条中所述播放时间对应的位置,并展示用于指示所述位置的提示信息以标注所述事件。
根据本申请实施例,一种视频直播的方法可以应用于视频直播***,所述方法包括:
视频剪辑服务器获取正在直播的视频节目关联的一个或多个事件的描述信息,其中,一个事件的所述描述信息包括所述事件的发生时间;对于获取到的一个事件的所述描述信息,根据所述描述信息中所述事件的发生时间确定所述事件的播放时间,将所述事件的播放时间提供给所述视频直播服务器;
视频直播服务器获取所述视频节目的直播媒体流,并提供给视频客户端播放;将所述事件的播放时间提供给所述视频客户端;
所述视频客户端播放所述视频节目的直播媒体流,并根据所述事件的播放时间,在所述视频节目的播放进度条中标注所述事件。
根据本申请实施例,一种视频直播的***可以包括:视频剪辑服务器、视频直播服务器和视频客户端;其中
所述视频剪辑服务器,用于获取正在直播的视频节目关联的一个或多个事件的描述信息,其中,一个事件的所述描述信息包括所述事件的发生时间;对于获取到的一个事件的所述描述信息,根据所述描述信息中所述事件的发生时间确定所述事件的播放时间,将所述事件的播放时间提供给所述视频直播服务器;
所述视频直播服务器,用于获取所述视频节目的直播媒体流, 并提供给所述视频客户端播放;将所述事件的播放时间提供给所述视频客户端;及
所述视频客户端,用于播放所述视频节目的直播媒体流,并根据所述事件的播放时间,在所述视频节目的播放进度条中标注所述事件。
本申请各实施例还提供计算机可读存储介质,存储有计算机可读指令。当配置为对应本申请视频直播***中的一设备时,所述指令可以由处理器执行各实施例中该设备的处理流程。
根据本申请实施例的技术方案,通过实时获取当前直播内容对应的现实场景中事件的信息,将其处理成标注数据提供给客户端,可以在直播的过程中,在直播回看轴上标示出已发生的事件节点,以直观的形式呈现本次直播中的事件。
附图简要说明
以下附图仅为本发明技术方案的一些例子,本发明并不局限于图中示出的特征。以下附图中,相似的标号表示相似的元素:
图1a为本申请实施例视频直播***的示意图;
图1b、1c为本申请实施例的视频直播***的视频直播方法的流程图;
图2a、2b为本申请实施例中视频剪辑服务器的视频直播方法的流程图;
图2c为本申请实施例的一种视频剪辑服务器的结构示意图;
图3a为本申请实施例的一种视频客户端的结构示意图;
图3b为本申请实施例的一种视频客户端的视频直播方法的流程图;
图3c、3d、3e为本申请实施例的一种视频直播的用户界面示意图。
实施本发明的方式
为了描述上的简洁和直观,下文通过描述若干代表性的实施例来对本发明的方案进行阐述。但本文并未示出所有实施方式。实施例中大量的细节仅用于帮助理解本发明的方案,本发明的技术方案实现时可以不局限于这些细节。为了避免不必要地模糊了本发明的方案,一些实施方式没有进行细致地描述,而是仅给出了框架。下文中,“包括”是指“包括但不限于”,“根据……”是指“至少根据……,但不限于仅根据……”。说明书和权利要求书中的“包括”是指某种程度上至少包括,应当解释为除了包括之后提到的特征外,其它特征也可以存在。
本申请实施例的技术方案可以在一场视频直播的过程中,实时根据场景中事件的发生、发展提供标注。通过本方案,用户可以在直播界面的播放进度条上实时看到关键的时间节点和事件节点,方便用户了解本场直播发生的内容,让用户能够有目的性的去回看之前的直播内容,回顾之前的精彩片段。
图1a为本申请实施例的视频直播***示意图。如图1a所示,该视频直播***10可以包括视频直播平台11、网络12和视频客户端13。其中,视频直播平台11通过网络12向视频客户端13提供视频直播服务。
其中,视频客户端13是指用于向视频服务***11请求视频直播服务、并将直播视频画面呈现在用户界面上的设备或程序。一些例子中,视频客户端13可以是运行在终端设备中的Web应用,如浏览器,等。另一些例子中,视频客户端13可以是专门设计用于与视频服务系 统11通信来获取视频数据的应用,如专用的视频App,等。
一些实施例中,视频直播平台11可以包括:视频剪辑服务器15、视频直播服务器16。一些实施例中,视频剪辑服务器15、视频直播服务器16可以各包括一台或多台物理设备(如计算设备)。
视频剪辑服务器15可以获取正在直播的视频节目关联的一个或多个事件的描述信息,其中,一个事件的描述信息包括该事件的发生时间;对于获取到的一个事件的所述描述信息,根据所述描述信息中所述事件的发生时间确定所述事件的播放时间,将所述事件的播放时间提供给所述视频直播服务器16。
视频直播服务器16可以获取该视频节目的直播媒体流,并提供给视频客户端13播放;将所述事件的播放时间提供给所述视频客户端。
视频客户端13可以播放所述视频节目的直播媒体流,并根据所述事件的播放时间,确定所述视频节目的播放进度条中所述播放时间对应的位置,并展示用于指示所述位置的提示信息以标注所述事件。
一些实施例中,正在直播的视频节目可以指对当前正在进行的某种活动的视频直播节目。这里所说的活动可以包括体育赛事、晚会、会议、庆典等。视频节目关联的事件可以指体育赛事中的进球、换人、犯规、一局比赛开始等,晚会中的某个节目开始、某个奖项的颁布等,会议中某人的发言,等等。
一些实施例中,事件的描述信息可以指用于对事件的各种特征进行描述的信息,例如描述事件的时间、地点、相关人物、事件内容等的信息。描述信息可以是非结构化数据,例如文本,也可以是结构化数据,如以预设格式存储的具有多个字段的数据、数据结构、数据库、采用某种标记语言(如XML、HTML)的文件,等。事件的描述信息可 以通过预设的途径获得。例如,可以从预设的网络设备(如数据服务提供商的数据库、活动举办方的设备,等)获得该描述信息。一些实施例中,视频直播平台11可以定期或不定期地访问该网络设备来读取事件描述信息。一些实施例中,可以由该网络设备在事件发生后实时地将事件的描述信息推送给视频直播平台11。另一些实施例中,视频直播平台11还可以获取手动输入的描述信息。
一些实施例中,事件的发生时间可以指在被直播的活动中该事件的发生时间,也即该事件的直播数据的采集时间。发生时间可以包括相对某一时间点的时间,如上半场的第M分钟,等,和/或绝对时间,如2017年5月8日15时30分,等。事件的播放时间可以指该事件对应的视频内容在直播过程中展示给用户的时间。从描述信息中提取事件的发生时间的方法可以依据描述信息的形式来定。例如,当描述信息为文本时,可以通过分析文本来提取事件的发生时间;当描述信息为预设格式的结构化数据时,可以从预设的字段提取出事件的发生时间。
图1a所示的视频直播平台11的构成方式仅用于说明视频直播平台11的功能,而不是为了将视频直播平台11局限在结构框架中。其它实施例中,视频直播平台11还可以由其它的设备以不同的组织方式实现。
图1b为本申请实施例的视频直播***进行视频直播方法的流程图。本申请各实施例中,各方法步骤的执行顺序不是固定的,不同的情况下,例如事件的发生频率、客户端接入直播的时间点可能不同,各步骤的执行顺序会根据实际情况进行调整。如图1b所示,该视频直播方法可以包括以下步骤。
步骤S101,视频直播服务器从数据源获取并存储视频节目的直播媒体数据。本步骤可以在直播过程中被持续不断地执行。
步骤S102,视频客户端向视频直播服务器请求该视频节目的直播数据。
步骤S103,视频直播服务器将该视频节目的直播媒体流提供给视频客户端。
一些例子中,视频数据以媒体数据流的形式传输到客户端。客户端只要不退出该直播,就会持续收到该直播的后续视频数据。
步骤S103a,客户端在用户界面中播放直播媒体流。
步骤S104a,视频剪辑服务器获取正在直播的视频节目关联的至少一个事件的描述信息,并确定事件的播放时间。
步骤S105a,视频剪辑服务器将事件信息发送给视频直播服务器。
一些实施例中,事件信息可以包括事件的播放时间。一些实施例中,事件信息还可以包括事件的其它信息,例如类型、文字描述、发生时间、涉及的人物,等。
步骤S106a,视频直播服务器将收到的事件信息存储在本地。
步骤S108a,视频直播服务器将收到的事件信息推送给接收该视频节目的视频客户端。
步骤S109a,视频客户端根据事件信息在该视频节目的播放进度条中标注该事件。
之后,随着直播的不断进行,被直播的活动中会陆续发生其他的事件。针对这些后续发生的事件,可以定期或不定期地执行与上述步骤相似的操作,例如,视频剪辑服务器可以执行步骤S104a,…S104k,…,S104n,及S105a,…S105k,…,S105n;视频直播服务器可以执行步骤S106a,…S106k,…,S106n,及S108a,…S108k,…,S108n;视频客户端可以执行步骤 S109a,…S109k,…,S109n。
在上述过程中的任意时间点,视频客户端可以响应于用户的操作,执行下列步骤。根据用户的需要,直播过程中,以下步骤可以被执行一次或多次,也可能不会被执行。
步骤S110,视频客户端响应于对一事件标记的操作,从该事件的播放时间处开始回放该视频节目。
步骤S111,视频客户端响应于退出回放的指令,从当前时间开始播放直播媒体流。
在该实施例中,视频直播平台可以在视频节目的直播过程中,实时获取视频节目中的事件的信息,并将事件信息推送给接收该视频节目的直播流的视频客户端,从而使客户端可以在直播节目中显示这些事件的标记,使用户可以选择想要回看的事件,并快速定位该事件的播放时间。
一些实施例中,视频直播平台11可以包括数据存储设备17,用于存储视频节目的直播媒体数据和各事件的信息。图1c为本申请实施例的视频直播***进行视频直播方法的流程图。如图1c所示,该视频直播方法可以包括以下步骤。
步骤S121,数据存储设备接收并存储视频节目的直播媒体数据。本步骤可以在直播过程中被持续不断地执行。
步骤S122,视频客户端向数据存储设备请求该视频节目的直播数据。
步骤S123,数据存储设备将该视频节目的直播媒体流提供给视频客户端。
步骤S123a,视频客户端在用户界面中播放该直播媒体流。
步骤S124a,视频剪辑服务器获取正在直播的视频节目关联的 至少一个事件的描述信息,并确定事件的播放时间。
步骤S125a,视频剪辑服务器将事件信息写入数据存储设备。
步骤S126a,数据存储设备存储收到的事件信息。
步骤S127a,视频客户端向数据存储设备查询该视频节目是否有尚未获取的事件信息。
步骤S128a,视频客户端从数据存储设备拉取事件信息。
步骤S129a,视频客户端根据事件信息在该视频节目的播放进度条中标注该事件。
随着直播的不断进行,针对被直播的活动中陆续发生的各个事件,可以定期或不定期地重复执行与上述步骤相似的操作。例如,视频剪辑服务器可以执行步骤S124a,…S124k,…,S124n,及S125a,…S125k,…,S125n;数据存储设备可以执行步骤S126a,…S126k,…,S126n;视频客户端可以执行S127a,…S127k,…,S127n,S128a,…S128k,…,S128n,及步骤S129a,…S129k,…,S129n。
在上述过程中的任意时间点,视频客户端可以响应于用户的操作,执行下列步骤。
步骤S130,视频客户端响应于对一事件标记的操作,从该事件的播放时间处开始回放该视频节目。
步骤S131,视频客户端响应于退出回放的指令,从当前时间开始播放直播媒体流。
在该实施例中,视频直播平台可以在视频节目的直播过程中,实时获取视频节目中的事件的信息,客户端实时从数据存储设备拉取事件信息,从而可以在直播节目中显示这些事件的标记,使用户可以选择想要回看的事件,并快速定位该事件的播放时间。
图2a为本申请实施例中视频剪辑服务器的视频直播方法的流程图。如图2a所示,该方法20可以包括以下步骤。
步骤S21,获取正在直播的视频节目关联的一个或多个事件的描述信息。其中,一个事件的描述信息包括该事件的发生时间。
步骤S22,对于获取到的一个事件的所述描述信息,根据所述描述信息中所述事件的发生时间确定所述事件的播放时间。
步骤S23,将所述事件的播放时间提供给所述视频直播服务器。
所述事件的播放时间由视频直播服务器提供给接收所述视频节目的直播流的客户端,用于在所述客户端中所述视频节目的播放进度条中标注所述事件。
这样,视频剪辑服务器在视频节目的直播过程中,实时获取直播中的事件信息,根据事件的发生时间确定事件的播放时间,使得客户端可以在该视频节目的播放进度条中标注该事件,从而能够使针对正在进行的直播中的事件提供精准回放功能成为可能。
由于直播时,需要对现场进行音视频采集、编码,然后通过网络传输,必然会导致直播相对于现场的延迟。对事件对应的直播内容进行标注,就需要将事件的描述信息中的发生时间校准为事件的播放时间。可以通过获取场景的发生时间和播放时间之间的偏差(也即所述直播中内容的播放时间与采集时间的偏差,简称为直播延迟)来进行上述校准。
一些实施例中,可以获取视频节目的直播延迟,并根据该直播延迟和事件的发生时间,确定事件的播放时间。直播延迟可以为所述视频节目的播放时间与采集时间的偏差。图2b为本申请实施例中视频 剪辑服务器的视频直播方法的流程图。为了简单扼要起见,本实施例及下文中,与前文描述过的步骤相似的步骤均被省略。如图2c所示,该方法30可以包括以下步骤。
步骤S31,获取所述视频节目中预设事件的描述信息。
步骤S32,从所述预设事件的描述信息中获取所述预设事件的发生时间。
步骤S33,获取所述预设事件的播放时间。
步骤S34,将所述预设事件的发生时间和播放时间之间的时间差作为直播延迟。
步骤S35,针对所述视频节目关联的第一事件,根据该直播延迟及第一事件的发生时间确定所述事件的播放时间。
通过采用视频节目中一预设事件的发生时间和播放时间的偏差作为视频节目的发生时间和播放时间的偏差,即直播延迟,利用该偏差来对其它各事件的发生时间进行调整,得到各事件的播放时间,这样就不必在处理每个事件时都确定一次直播延迟,节约了处理资源,提高了处理效率。
预设事件的发生时间的获取方法与上述的获取事件的发生时间的方法相同,这里不再赘述。一些例子中,预设事件的播放时间可以从通过输入设备获得的手动输入信息中得到,也可以是利用机器自动识别得到的。计算得到的预设事件的发生时间和播放时间之间的时间差可以存储在***中,供后续读取使用。
一些例子中,预设事件为预设类型的事件,如主持人上场事件、运动员入场事件,等。一些例子中,预设事件为所述场景中最早发生的事件,则视频剪辑服务器15在获得事件的描述信息时,可以先判断该事件是否为本场景中获取到描述信息的第一个事件,如果是,则执 行方法30。
获得场景的发生时间和播放时间的偏差后,可以将事件的发生时间加上上述偏差得到的时间点确定为事件的播放时间。
一些实施例中,随着直播的进行,可以多次对直播延迟进行更新,例如可以设置多个预设事件,当预设事件发生时,执行一次直播延迟的计算和更新。每次获得直播延迟的方法与上述方法30类似,这里不再赘述。
一些实施例中,视频剪辑服务器15可以利用事件的播放时间生成该事件的标注数据,并写入视频存储设备17,供视频客户端13获取。一个事件的标注数据可以是将该事件的一项或者多项信息以预设的格式组织起来形成的数据。一些例子中,可以将事件的播放时间与该直播内容的标识的关联关系存储在数据存储***16中以便查找。例如,标注数据中可以包括事件的标识。事件的标识可以包括事件的唯一编号。一些例子中,除了播放时间,标注数据还可以包括事件的其它信息,如事件类型、事件名称、发生时间、涉及的人物、所属的直播节目、描述文本,等。例如,可以根据事件的描述信息生成预设格式的标注数据,将该标注数据存储到视频直播服务器16的数据存储设备17中。标注数据可以由视频客户端13根据预设格式解析并以预设方式呈现解析得到的信息。视频直播服务器16可以将数据存储设备17中的视频节目关联的事件的标注数据提供给接收该视频节目的直播媒体流的视频客户端13。例如,视频直播服务器16可以定期或者在检测到有新的标注数据时,将新的标注数据推送给该视频节目关联的视频客户端13。新的标注数据可以指,在上一次推送的时间点之后获得的标注数据。又例如,视频直播服务器16可以在接收到视频客户端13的请求后,将被请求的标 注数据发送给视频客户端13。
一些实施例中,可以仅对较重要的事件进行标记,在存储事件的标注数据前,可以先对事件进行筛选。例如,事件的描述信息可以包括该事件的类型,视频剪辑服务器15可以仅存储预设类型的事件的标注数据。例如,当事件的类型为预设的至少一种事件类型之一时,视频剪辑服务器15可以执行将所述事件的标注数据存储到所述数据存储设备中的步骤。一些实施例中,也可以预设不需要存储的事件类型,则当事件的类型不属于预设的不需要存储的事件类型之一时,视频剪辑服务器15可以执行将所述事件的标注数据存储到所述数据存储设备中的步骤,也即,当事件的类型为预设的不需要存储的事件类型之一时,则不存储该事件的标注数据。其它实施例中,也可以采用其它的事件筛选标准,使用事件类型仅用于举例说明。
一些实施例中,为了避免标记太多事件而淹没了重要事件,视频剪辑服务器15在存储新的标注数据时,可以对已存储在数据存储设备17中的事件进行淘汰。例如,当事件的标注数据包括该事件的类型时,可以利用事件的类型和预设的各类型对应的优先级,对已存储的标注数据进行淘汰。例如,当所述数据存储设备17中当前存储的所述视频节目的事件个数达到预设阈值时,根据预设的事件类型与优先级的对应关系,获取所述事件(即,新的待存储的事件)的类型对应的优先级作为所述事件的优先级。当确定所述事件的优先级高于所述数据存储设备中存储的所述视频节目对应的至少一个事件的优先级时,将所述事件的标注数据存储到所述数据存储设备中,并从所述数据存储设备中删除所述至少一个事件的标注数据。这里的比待存储事件的优先级低的至少一个事件,可以指存储的所有事件中,所有比该事件的优先级低的事件,也可以是所有比该事件的优先级低的事件中的一个或多个事件。一 些实施例中,当多个事件的优先级相同时,可以保留播放时间较近(即较新)的事件。一些实施例中,当比待存储事件的优先级低的事件有多个时,可以删除所有比该事件的优先级低的事件,或者,也可以仅删除与待存储的事件个数相同的已存储事件的标注数据。例如,需要删除一个事件的标注数据时,可以在找到一个优先级比待存储的事件优先级低的事件时,删除该优先级较低的事件的标注数据,或者遍历所有存储的事件,将其中优先级最低且播放时间较早的事件的标注数据删除。
图2c为本申请实施例的一种视频剪辑服务器的结构示意图。如图2c所示,该视频剪辑服务器15可以包括:处理器21、存储器23和网络接口27。其中,存储器23中包括操作***24、网络通信模块25和标注模块26。
其中,标注模块26可以包括:获取模块261、时间提取模块262、时间调整模块264,以及标注提供模块265。获取模块261可以获取当前正在直播的视频节目关联的事件的描述信息。时间提取模块262可以从所述描述信息中提取所述事件的发生时间。时间调整模块764可以根据所述事件的发生时间确定所述事件的播放时间。标注提供模块765可以将所述事件的播放时间提供给视频直播服务器。
一些实施例中,标注模块26还可以包括延迟获取模块263。延迟获取模块263可以获取所述视频节目的直播延迟。
上述各模块的详细处理流程可以参见各实施例中剪辑服务器的操作,这里不再赘述。
一些实施例中,标注模块26可以由计算机可读指令实现,即,体现为对应上述模块261~265的计算机可读指令。这些指令可以使处理器21执行本申请各实施例的剪辑服务器的操作。
一些实施例中,视频直播平台11还可以包括数据获取服务器14。数据获取服务器14可以从外部数据源获取事件的原始描述数据,从中提取出事件的描述信息,并提供给视频剪辑服务器15。
一些例子中,数据获取服务器14可以在视频节目的直播过程中,定期或不定期地访问预先设定的网络设备来读取事件的原始描述数据。另一些例子中,可以由预设的网络设备在事件发生后实时将事件的原始描述数据推送给数据获取服务器14。这些预设的网络设备可以是数据服务提供方的设备,例如NBA的play-by-play数据库、第三方数据服务公司的服务器,等。再一些例子中,数据获取服务器14可以获取手动输入的原始描述数据。
一些例子中,数据获取服务器14可以根据原始描述数据确定事件的至少一项描述信息,所述至少一项描述信息包括所述事件的发生时间,并将确定的描述信息以及该事件所属的视频节目的标识提供给视频剪辑服务器15。
一些实施例中,数据获取服务器14可以从所述原始描述数据中提取事件的类型和事件的发生时间。事件类型和事件的发生时间可以通过对文本进行分析得到,或者读取结构化数据的相应字段得到。
一些实施例中,数据获取服务器14还可以获取预设的、与该事件类型关联的图标素材。一些例子中,不同的事件类型可以预设有相应的图标素材,用于标注该类型的事件。例如,事件类型为足球比赛中的进球时,图标素材可以为表示足球的图标;事件类型为红牌时,图标素材可以为表示红牌的红色矩形。数据获取服务器14可以将包括该事件类型、事件的发生时间和图标素材的描述信息提供给视频剪辑服务器15。视频剪辑服务器15可根据事件类型确定是否将所述事件的播放时间和图标素材提供给所述客户端,使所述客户端在播放进度条中对应所 述播放时间的位置展示所述图标素材以标注所述事件。一些实施例中,数据获取服务器14提供的至少一项描述信息还可以包括该事件的描述文本。该描述文本可以从原始描述数据中提取得到。
一些实施例中,数据获取服务器14可以先对事件进行筛选,剔除不需要标注的事件。例如,数据获取服务器14可以从事件的原始描述数据中提取该事件的事件类型;当根据该事件类型确定该事件需要标注时,再将该事件的至少一项描述信息提供给视频剪辑服务器15。数据获取服务器14可以利用预设的事件类型的列表(如需要标注的事件类型的列表,或不需要标注的事件类型的列表)来确定事件是否需要标注。例如,对于篮球比赛,可以设置需要标注的事件类型包括三分球、扣篮、上篮、盖帽,等;对于足球比赛,可以设置需要标注的事件类型包括进球、射门、点球、红牌、黄牌、受伤下场、换人等。一些实施例中,还可以通过设置需要标注的事件类型达到将直播划分时间段的效果。例如,对于篮球比赛,可以设置需要标注的事件类型包括每一节的开始事件和结束事件,等;对于足球比赛,可以设置需要标注的事件类型包括上半场的开始和结束、下半场的开始和结束、加时赛的开始,等。
视频剪辑服务器15生成的事件信息(如事件的播放时间、或事件的标注数据,等)可以被视频客户端13取得,以便在直播界面上标注事件。图3a为本申请实施例的一种视频客户端的结构示意图。如图3a所示,该视频客户端13可以包括:处理器31、存储器33、显示设备38和网络接口37。其中,存储器33中包括操作***34、网络通信模块35和视频播放模块36。其中,视频播放模块36可以包括:直播流播放模块361和事件标注模块362。
图3b为本申请实施例的一种提供标注数据的方法流程图。如 图3b所示,该方法40可以包括以下步骤。
步骤S41,直播流播放模块361可以接收来自视频直播服务器的一视频节目的直播媒体流,根据所述直播媒体流播放所述视频节目的直播画面。
步骤S42,事件标注模块362可以从所述视频直播服务器获取与所述视频节目关联的一个或多个事件的播放时间。
一些实施例中,视频客户端13可以以预设的时间间隔从视频直播服务器16拉取标注数据。例如,可以以预设的时间间隔向视频直播服务器16查询所述视频节目是否存在未获取的事件的标注数据;当确定存在未获取的事件的标注数据时,从所述视频直播服务器拉取未获取的事件的标注数据,所述标注数据包括所述事件的播放时间。一些实施例中,视频直播服务器16可以将标注数据按照预设的时间间隔或者在有更新的标注数据时,将标注数据推送给客户端。视频客户端13可以采用基于HTTP接口的数据通信来获取标注数据。
步骤S43,对于获取到的一个事件的所述播放时间,事件标注模块362可以确定所述视频节目的播放进度条中所述播放时间对应的位置,并展示用于指示所述位置的提示信息以标注所述事件。
各实施例中,视频客户端13可以在视频直播的用户界面中的任意位置展示事件的提示信息。例如,视频客户端13可以在侧边栏以信息列表的形式展示事件的提示信息。又例如,视频客户端13可以以字幕的形式滚动展示各事件的提示信息。再例如,视频客户端13可以直接在播放进度条中对应事件的播放时间的位置上展示标记。图2b为本申请实施例的一种视频直播的用户界面示意图。其中,在播放进度条21中,视频客户端13利用标记44来表示当前的直播进度,利用标记42、43来表示本次直播中已发生的两个事件的所在的位置。
一些实施例中,视频客户端13可以获取事件对应的图标素材,并在播放进度条中对应该事件的播放时间的位置显示该图标素材,以标注该事件。一些例子中,视频客户端13可以从该事件的标注数据中获取该事件的类型信息,利用预设的类型信息与图标素材的对应关系确定该类型信息对应的图标素材。例如,可以预先在视频客户端13中设置各种类型信息与各种图标素材的对应关系,这样,在确定了事件的类型信息后,就可以根据预设的对应关系确定该事件对应的图标素材。另一些例子中,视频客户端13可以从该事件的标注数据中获取该事件对应的图标素材。例如,标注数据中可以包括图标素材的信息,例如图标素材的图片数据、图标素材的唯一标识、图标素材的URL,等;视频客户端13可以利用获取到的图标素材的信息得到图标素材。另一些例子中,视频客户端13可以从所述视频直播服务器获取所述事件对应的图标素材。图3d为本申请实施例的一种视频直播的播放界面示意图。如图3d所示,随着视频节目(例如,一场足球比赛)的进行,播放进度条41中除了当前播放进度的标记44外,还展示有一些提示信息(本例中为图标)。不同的图标代表不同的事件类型,例如上半场比赛开始411、红牌412、进球413、上半场比赛结束414、下半场比赛开始415、换人416,等。
在一些实施例中,当检测到对某事件的提示信息的操作(如鼠标悬停、触摸,等)时,视频客户端13可以将该提示信息对应的事件的相关信息呈现在用户界面中。此时,呈现的事件的信息可以包括,但不限于,该事件的发生时间、涉及的人物、描述文本、代表图像,等。事件的描述文本可以从事件的标注数据中获得。事件的代表图像可以由客户端从视频直播内容中截取一帧图像(例如该事件的播放时间对应的帧图像),直接将该图像或者该图像的缩略图作为该事件的代表图像。 响应于对提示信息的操作(例如鼠标悬停等),视频客户端13可以在播放界面上显示该提示信息对应的事件的播放时间47、截图46和描述文本48(比如“C罗主罚点球破门”),方便用户快速了解该事件的内容。
一些实施例中,各实施例中,响应于对所述提示信息的操作,视频客户端13可以从所述位置对应的播放时间开始重播所述视频节目。例如,响应于用户对一事件对应的提示信息的操作,视频客户端13可以获取该提示信息对应的事件的播放时间,并从该播放时间开始回放该视频节目。例如,当检测到对某事件的提示信息(如标记、图标、文字提示,等)的操作(如点击,拖拽播放进度标记到提示信息的位置,等)时,视频客户端13可以暂停播放该视频节目的直播媒体流,并从该事件对应的播放时间开始重播该视频节目。图3e为本申请实施例的一种视频直播的播放界面示意图。如图3e所示,在直播过程中进行回放时,视频客户端13可以在播放进度条41中显示标记441,表示当前回放内容的位置,以及标记44,表示当前时间点视频节目的直播进度。此外,视频客户端13还可以在用户界面中提供界面元素49。响应于用户对界面元素49的操作,视频客户端13可以切换回直播,即,退出回放,并根据当前接收到的该视频节目的直播媒体流播放该视频节目的直播画面。
上述各模块的详细处理流程可以参见各实施例中视频客户端的操作,这里不再赘述。一些实施例中,视频播放模块36可以由计算机可读指令实现,即,体现为对应上述模块361和362的计算机可读指令。这些指令可以使处理器31执行本申请各实施例的视频客户端的操作。
一些实施例中,视频直播平台11可以根据视频客户端13关联的用户信息,向视频客户端提供与用户信息匹配的事件的信息。例如, 视频直播服务器16可以根据视频客户端13的信息确定用户标签,在数据存储设备17中确定与该用户标签匹配的至少一个事件的标注数据,并将所述至少一个事件的标注数据提供给该视频客户端13。
一些实施例中,视频直播服务器16可以从视频客户端13发送的事件获取请求中获取用户标识,或者从存储的视频客户端与用户标识之间的对应关系获得视频客户端对应的用户标识,然后从用户数据库获取该用户标识对应的用户标签。一些实施例中,视频客户端13可以确定用户的用户标签,并将用户标签加入事件获取请求;视频直播服务器16可以从事件获取请求中获得用户标签。
响应于视频客户端13的事件获取请求,视频直播服务器16可以根据该事件获取请求确定用户标签,在所述数据存储设备17中确定与该用户标签匹配的至少一个事件的标注数据,将所述至少一个事件的标注数据提供给所述客户端。
一些实施例中,数据获取服务器14可以从一个或多个数据源获取同一事件的多个原始描述信息,从中提取出多条描述文本,连同事件的发生时间一起作为事件的描述信息提供给视频剪辑服务器15。同一事件的多条描述文本可以是对该事件以不同的方式进行描述的文本。不同的方式可以包括,但不限于,不同的倾向性、不同的语言、不同的视角、不同的描述风格,等。视频剪辑服务器15可以该描述信息中提取出多个描述文本,在所述标注数据中加入所述多个描述文本组成的描述向量。视频客户端13获得事件的标注数据后,可以解析其中的描述向量得到多个描述文本,并从所述多个描述文本中提取与用户信息匹配的描述文本并呈现。描述向量是指由多个描述文本组成的集合或字符串数组。
一些实施例中,数据获取服务器14可以从原始描述信息中提取出各描述文本的标签信息,或者根据描述文本的数据来源确定描述文本的标签信息。数据获取服务器14可以把事件的多条描述文本及各描述文本的标签信息一并提供给视频剪辑服务器15。视频剪辑服务器15将这些信息加入该事件的标注数据。视频客户端13可以确定本地用户的用户标签,在多个描述文本的标签信息中查找与用户标签匹配的描述文本,并展示所述与所述用户标签匹配的描述文本。
一些实施例中,视频客户端13也可以依次展示同一事件的多个描述文本,例如以预设的时间间隔、与其它事件的描述文本一起轮流展示。
视频客户端13展示事件的描述文本的时机可以包括:响应于对所述播放进度条中所述提示信息的操作,或响应与所述描述文本的获取,或响应于所述视频节目的直播结束的确定。
需要说明的是,上述各流程和各结构图中不是所有的步骤和模块都是必须的,可以根据实际的需要忽略某些步骤或模块。各步骤的执行顺序不是固定的,可以根据需要进行调整。各模块的划分仅仅是为了便于描述采用的功能上的划分,实际实现时,一个模块可以分由多个模块实现,多个模块的功能也可以由同一个模块实现,这些模块可以位于同一个设备中,也可以位于不同的设备中。另外,上面描述中采用“第一”、“第二”仅仅为了方便区分具有同一含义的两个对象,并不表示其有实质的区别。
各实施例中的硬件模块可以以硬件方式或硬件平台加软件的方式实现。上述软件包括机器可读指令,存储在非易失性存储介质中。因此,各实施例也可以体现为软件产品。
各例中,硬件可以由专门的硬件或执行机器可读指令的硬件 实现。例如,硬件可以为专门设计的永久性电路或逻辑器件(如专用处理器,如FPGA或ASIC)用于完成特定的操作。硬件也可以包括由软件临时配置的可编程逻辑器件或电路(如包括通用处理器或其它可编程处理器)用于执行特定操作。
图中的模块对应的机器可读指令可以使计算机上操作的操作***等来完成这里描述的部分或者全部操作。非易失性计算机可读存储介质可以是***计算机内的扩展板中所设置的存储器中或者写到与计算机相连接的扩展单元中设置的存储器。安装在扩展板或者扩展单元上的CPU等可以根据指令执行部分和全部实际操作。
非易失性计算机可读存储介质包括软盘、硬盘、磁光盘、光盘(如CD-ROM、CD-R、CD-RW、DVD-ROM、DVD-RAM、DVD-RW、DVD+RW)、磁带、非易失性存储卡和ROM。可选择地,可以由通信网络从服务器计算机上下载程序代码。
综上所述,权利要求的范围不应局限于以上描述的例子中的实施方式,而应当将说明书作为一个整体并给予最宽泛的解释。

Claims (18)

  1. 一种视频直播的方法,应用于视频剪辑服务器,所述方法包括:
    获取正在直播的视频节目关联的一个或多个事件的描述信息,其中,一个事件的所述描述信息包括所述事件的发生时间;
    对于获取到的一个事件的所述描述信息,根据所述描述信息中所述事件的发生时间确定所述事件的播放时间,将所述事件的播放时间提供给所述视频直播服务器,所述事件的播放时间由视频直播服务器提供给接收所述视频节目的直播流的客户端,用于在所述客户端中所述视频节目的播放进度条中标注所述事件。
  2. 根据权利要求1所述的方法,进一步包括:
    获取所述视频节目的直播延迟,所述延迟为所述视频节目的播放时间与采集时间的偏差;
    其中,根据所述直播延迟和所述事件的发生时间,确定所述事件的播放时间。
  3. 根据权利要求2所述的方法,其中,获取所述视频节目的直播延迟包括:
    获取所述视频节目中预设事件的描述信息;
    从所述预设事件的描述信息中获取所述预设事件的发生时间;
    获取所述预设事件的播放时间;
    将所述预设事件的发生时间和所述预设事件的播放时间之间的时间差作为所述直播延迟。
  4. 根据权利要求1所述的方法,其中,将所述事件的播放时间提供 给所述视频直播服务器包括:
    根据所述描述信息生成预设格式的标注数据,所述标注数据包括所述事件的播放时间;
    将所述事件的标注数据存储到所述视频直播服务器的数据存储设备中;所述标注数据由所述客户端根据所述预设格式解析并以预设方式呈现解析得到的信息。
  5. 根据权利要求4所述的方法,其中,所述事件的标注数据包括所述事件的类型,所述方法进一步包括:
    当所述数据存储设备中当前存储的所述视频节目的事件个数达到预设阈值时,根据预设的事件类型与优先级的对应关系,获取所述事件的类型对应的优先级作为所述事件的优先级;
    当确定所述事件的优先级高于所述数据存储设备中存储的所述视频节目对应的至少一个事件的优先级时,执行将所述事件的标注数据存储到所述数据存储设备中的步骤,并从所述数据存储设备中删除所述至少一个事件的标注数据。
  6. 根据权利要求4所述的方法,根据所述描述信息生成预设格式的标注数据包括:
    从所述描述信息中提取多个描述文本,在所述标注数据中加入所述多个描述文本组成的描述向量;所述描述向量由所述客户端从所述多个描述文本中提取与用户信息匹配的描述文本并呈现。
  7. 一种视频直播的方法,应用于视频客户端,所述方法包括:
    接收来自视频直播服务器的一视频节目的直播媒体流;
    根据所述直播媒体流播放所述视频节目的直播画面;
    从所述视频直播服务器获取与所述视频节目关联的一个或多个事件的播放时间;
    对于获取到的一个事件的所述播放时间,确定所述视频节目的播放进度条中所述播放时间对应的位置,并展示用于指示所述位置的提示信息以标注所述事件。
  8. 根据权利要求7所述的方法,进一步包括:
    响应于对所述提示信息的操作,暂停播放所述视频节目的直播媒体流,从所述位置对应的播放时间开始播放所述视频节目。
  9. 根据权利要求7所述的方法,其中,从所述视频直播服务器实时获取与所述视频节目关联的一个或多个事件的播放时间包括:
    以预设的时间间隔向所述视频直播服务器查询所述视频节目是否存在未获取的事件的标注数据;
    当确定存在未获取的事件的标注数据时,从所述视频直播服务器拉取未获取的事件的标注数据,所述标注数据包括所述事件的播放时间。
  10. 根据权利要求7所述的方法,其中,所述提示信息为图标素材;
    从所述视频直播服务器获取与所述视频节目关联的一个或多个事件的播放时间包括:从所述视频直播服务器获取所述一个或多个事件的标注数据,所述标注数据包括所述播放时间;
    所述方法进一步包括:从所述标注数据中获得所述事件的类型,并获取预设的与所述类型对应的图标素材。
  11. 根据权利要求7所述的方法,从所述视频直播服务器实时获取与所述视频节目关联的一个或多个事件的播放时间包括:
    确定所述视频客户端对应用户的用户标签;
    从所述视频直播服务器获取与所述用户标签匹配的一个或多个事件的播放时间。
  12. 根据权利要求7所述的方法,进一步包括:
    从所述视频直播服务器获取所述事件对应的多个描述文本;
    确定所述视频客户端对应用户的用户标签;
    确定所述多个描述文本中与所述用户标签匹配的描述文本,并展示所述与所述用户标签匹配的描述文本。
  13. 一种视频剪辑服务器,包括:处理器和存储器,所述存储器中存储有计算机可读指令,可以使所述处理器:
    获取正在直播的视频节目关联的一个或多个事件的描述信息,其中,一个事件的所述描述信息包括所述事件的发生时间;
    对于获取到的一个事件的所述描述信息,根据所述描述信息中所述事件的发生时间确定所述事件的播放时间,将所述事件的播放时间发送给所述视频直播服务器,所述事件的播放时间由所述视频直播服务器发送给接收所述视频节目的直播流的客户端,用于在所述客户端中所述视频节目的播放进度条中标注所述事件。
  14. 一种视频客户端,包括:处理器和存储器,所述存储器中存储有计算机可读指令,可以使所述处理器:
    接收来自视频直播服务器的一个视频节目的直播媒体流;
    根据所述直播媒体流播放所述视频节目的直播画面;
    从所述视频直播服务器实时获取与所述视频节目关联的一个或多个事件的播放时间;
    对于获取到的一个事件的所述播放时间,确定所述视频节目的播放 进度条中所述播放时间对应的位置,并展示用于指示所述位置的提示信息以标注所述事件。
  15. 一种视频直播的方法,包括:
    视频剪辑服务器获取正在直播的视频节目关联的一个或多个事件的描述信息,其中,一个事件的所述描述信息包括所述事件的发生时间;对于获取到的一个事件的所述描述信息,根据所述描述信息中所述事件的发生时间确定所述事件的播放时间,将所述事件的播放时间提供给所述视频直播服务器;
    视频直播服务器获取所述视频节目的直播媒体流,并提供给视频客户端播放;将所述事件的播放时间提供给所述视频客户端;
    所述视频客户端播放所述视频节目的直播媒体流,并根据所述事件的播放时间,在所述视频节目的播放进度条中标注所述事件。
  16. 一种视频直播的***,包括:视频剪辑服务器、视频直播服务器和视频客户端;其中
    所述视频剪辑服务器,用于获取正在直播的视频节目关联的一个或多个事件的描述信息,其中,一个事件的所述描述信息包括所述事件的发生时间;对于获取到的一个事件的所述描述信息,根据所述描述信息中所述事件的发生时间确定所述事件的播放时间,将所述事件的播放时间提供给所述视频直播服务器;
    所述视频直播服务器,用于获取所述视频节目的直播媒体流,并提供给所述视频客户端播放;将所述事件的播放时间提供给所述视频客户端;及
    所述视频客户端,用于播放所述视频节目的直播媒体流,并根据所述事件的播放时间,在所述视频节目的播放进度条中标注所述事件。
  17. 一种计算机可读存储介质,存储有计算机可读指令,所述指令可以由处理器执行以实现如权利要求1-6任一项所述的方法。
  18. 一种计算机可读存储介质,存储有计算机可读指令,所述指令可以由处理器执行以实现如权利要求7-12任一项所述的方法。
PCT/CN2017/110341 2017-11-10 2017-11-10 一种视频直播的方法、装置和*** WO2019090653A1 (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/CN2017/110341 WO2019090653A1 (zh) 2017-11-10 2017-11-10 一种视频直播的方法、装置和***
CN201780055514.9A CN110024412B (zh) 2017-11-10 2017-11-10 一种视频直播的方法、装置和***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2017/110341 WO2019090653A1 (zh) 2017-11-10 2017-11-10 一种视频直播的方法、装置和***

Publications (1)

Publication Number Publication Date
WO2019090653A1 true WO2019090653A1 (zh) 2019-05-16

Family

ID=66437369

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2017/110341 WO2019090653A1 (zh) 2017-11-10 2017-11-10 一种视频直播的方法、装置和***

Country Status (2)

Country Link
CN (1) CN110024412B (zh)
WO (1) WO2019090653A1 (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190342621A1 (en) * 2018-05-07 2019-11-07 Apple Inc. User interfaces for viewing live video feeds and recorded video
US10635303B2 (en) 2016-06-12 2020-04-28 Apple Inc. User interface for managing controllable external devices
US10779085B1 (en) 2019-05-31 2020-09-15 Apple Inc. User interfaces for managing controllable external devices
US11079913B1 (en) 2020-05-11 2021-08-03 Apple Inc. User interface for status indicators
US11363071B2 (en) 2019-05-31 2022-06-14 Apple Inc. User interfaces for managing a local network
CN115103213A (zh) * 2022-06-10 2022-09-23 咪咕视讯科技有限公司 信息处理方法、装置、设备及计算机可读存储介质
US11589010B2 (en) 2020-06-03 2023-02-21 Apple Inc. Camera and visitor user interfaces
US11657614B2 (en) 2020-06-03 2023-05-23 Apple Inc. Camera and visitor user interfaces
US11785277B2 (en) 2020-09-05 2023-10-10 Apple Inc. User interfaces for managing audio for media items

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113382198A (zh) * 2020-03-10 2021-09-10 玛克多股份有限公司 一种医疗影像整合同步播放***
CN111565334B (zh) * 2020-04-30 2021-12-28 广州酷狗计算机科技有限公司 直播回放方法、装置、终端、服务器及存储介质
CN111757147B (zh) * 2020-06-03 2022-06-24 苏宁云计算有限公司 一种赛事视频结构化的方法、装置及***
CN114189699B (zh) * 2020-09-15 2024-07-19 钉钉(中国)信息技术有限公司 政务服务信息提供方法、装置及电子设备
CN112231517A (zh) * 2020-11-04 2021-01-15 支付宝(杭州)信息技术有限公司 一种数据查询方法及装置
CN112533008A (zh) * 2020-11-16 2021-03-19 北京达佳互联信息技术有限公司 视频回放方法、装置、电子设备及存储介质
CN112417209A (zh) * 2020-11-20 2021-02-26 青岛以萨数据技术有限公司 一种基于浏览器的实时视频标注方法、***、终端及介质
CN112423113A (zh) * 2020-11-20 2021-02-26 广州欢网科技有限责任公司 电视节目打点方法、装置及电子终端
CN113423000B (zh) * 2021-06-11 2024-01-09 完美世界征奇(上海)多媒体科技有限公司 视频的生成方法及装置、存储介质、电子装置
CN114095791A (zh) * 2021-11-15 2022-02-25 广州博冠信息科技有限公司 直播回放方法、装置、电子设备和存储介质
CN115134631B (zh) * 2022-07-25 2024-01-30 北京达佳互联信息技术有限公司 视频处理方法和视频处理装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130198005A1 (en) * 2012-01-27 2013-08-01 Sony Network Entertainment International Llc System, method, and infrastructure for real-time live streaming content
CN103763626A (zh) * 2013-12-19 2014-04-30 华为软件技术有限公司 一种信息推送方法、设备和***
CN103763581A (zh) * 2013-05-02 2014-04-30 乐视网信息技术(北京)股份有限公司 一种实现直播回看的方法和***
CN104469512A (zh) * 2013-09-25 2015-03-25 浙江大华技术股份有限公司 一种视频播放器及其控制视频播放的方法
CN105007533A (zh) * 2015-07-28 2015-10-28 米科互动教育科技(北京)有限公司 直播课程回放方法、装置以及***
CN105376588A (zh) * 2015-12-18 2016-03-02 北京金山安全软件有限公司 一种视频直播方法、装置及电子设备
CN105916035A (zh) * 2015-12-15 2016-08-31 乐视致新电子科技(天津)有限公司 一种快速定位播放时间点的显示方法及装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2690879B1 (en) * 2012-07-23 2016-09-07 LG Electronics, Inc. Mobile terminal and method for controlling of the same
KR102161230B1 (ko) * 2013-05-28 2020-09-29 삼성전자주식회사 멀티미디어 콘텐츠 검색을 위한 사용자 인터페이스 방법 및 장치
CN104284249A (zh) * 2013-07-11 2015-01-14 腾讯科技(深圳)有限公司 视频播放方法及装置
US9727215B2 (en) * 2013-11-11 2017-08-08 Htc Corporation Method for performing multimedia management utilizing tags, and associated apparatus and associated computer program product
CN104038848A (zh) * 2014-05-30 2014-09-10 无锡天脉聚源传媒科技有限公司 一种视频处理方法及装置
CN104219571B (zh) * 2014-09-17 2019-05-28 传线网络科技(上海)有限公司 一种自动提供看点的方法和装置
CN105302906A (zh) * 2015-10-29 2016-02-03 小米科技有限责任公司 信息标注方法及装置
CN105611413B (zh) * 2015-12-24 2018-10-02 小米科技有限责任公司 一种添加视频段类别标记的方法和装置
US10219040B2 (en) * 2015-12-28 2019-02-26 The Directv Group, Inc. Video frame bookmarking user interface component
CN105812941A (zh) * 2016-03-31 2016-07-27 北京金山安全软件有限公司 一种视频播放方法、装置及电子设备
CN106375860B (zh) * 2016-09-30 2020-03-03 腾讯科技(深圳)有限公司 一种视频播放方法、装置、终端及服务器

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130198005A1 (en) * 2012-01-27 2013-08-01 Sony Network Entertainment International Llc System, method, and infrastructure for real-time live streaming content
CN103763581A (zh) * 2013-05-02 2014-04-30 乐视网信息技术(北京)股份有限公司 一种实现直播回看的方法和***
CN104469512A (zh) * 2013-09-25 2015-03-25 浙江大华技术股份有限公司 一种视频播放器及其控制视频播放的方法
CN103763626A (zh) * 2013-12-19 2014-04-30 华为软件技术有限公司 一种信息推送方法、设备和***
CN105007533A (zh) * 2015-07-28 2015-10-28 米科互动教育科技(北京)有限公司 直播课程回放方法、装置以及***
CN105916035A (zh) * 2015-12-15 2016-08-31 乐视致新电子科技(天津)有限公司 一种快速定位播放时间点的显示方法及装置
CN105376588A (zh) * 2015-12-18 2016-03-02 北京金山安全软件有限公司 一种视频直播方法、装置及电子设备

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10635303B2 (en) 2016-06-12 2020-04-28 Apple Inc. User interface for managing controllable external devices
US10904628B2 (en) * 2018-05-07 2021-01-26 Apple Inc. User interfaces for viewing live video feeds and recorded video
US20190342621A1 (en) * 2018-05-07 2019-11-07 Apple Inc. User interfaces for viewing live video feeds and recorded video
US10820058B2 (en) 2018-05-07 2020-10-27 Apple Inc. User interfaces for viewing live video feeds and recorded video
US11785387B2 (en) 2019-05-31 2023-10-10 Apple Inc. User interfaces for managing controllable external devices
US10904029B2 (en) 2019-05-31 2021-01-26 Apple Inc. User interfaces for managing controllable external devices
US11363071B2 (en) 2019-05-31 2022-06-14 Apple Inc. User interfaces for managing a local network
US10779085B1 (en) 2019-05-31 2020-09-15 Apple Inc. User interfaces for managing controllable external devices
US11824898B2 (en) 2019-05-31 2023-11-21 Apple Inc. User interfaces for managing a local network
US11079913B1 (en) 2020-05-11 2021-08-03 Apple Inc. User interface for status indicators
US11513667B2 (en) 2020-05-11 2022-11-29 Apple Inc. User interface for audio message
US11589010B2 (en) 2020-06-03 2023-02-21 Apple Inc. Camera and visitor user interfaces
US11657614B2 (en) 2020-06-03 2023-05-23 Apple Inc. Camera and visitor user interfaces
US11937021B2 (en) 2020-06-03 2024-03-19 Apple Inc. Camera and visitor user interfaces
US11785277B2 (en) 2020-09-05 2023-10-10 Apple Inc. User interfaces for managing audio for media items
CN115103213A (zh) * 2022-06-10 2022-09-23 咪咕视讯科技有限公司 信息处理方法、装置、设备及计算机可读存储介质
CN115103213B (zh) * 2022-06-10 2023-10-17 咪咕视讯科技有限公司 信息处理方法、装置、设备及计算机可读存储介质

Also Published As

Publication number Publication date
CN110024412B (zh) 2020-12-25
CN110024412A (zh) 2019-07-16

Similar Documents

Publication Publication Date Title
WO2019090653A1 (zh) 一种视频直播的方法、装置和***
US11805291B2 (en) Synchronizing media content tag data
US20200065322A1 (en) Multimedia content tags
US9633696B1 (en) Systems and methods for automatically synchronizing media to derived content
EP2901631B1 (en) Enriching broadcast media related electronic messaging
EP2731347B1 (en) Crowdsourcing supplemental content
US9535988B2 (en) Blog-based video summarization
US9306989B1 (en) Linking social media and broadcast media
JP2006155384A (ja) 映像コメント入力・表示方法及び装置及びプログラム及びプログラムを格納した記憶媒体
KR101246917B1 (ko) 미디어 재생 시스템의 사용자 간에 정보를 공유하는 방법및 시스템
WO2017015100A1 (en) Video-production system with social-media features
US10057656B2 (en) Presenting advertisements during media content seek
CN105230035A (zh) 用于选择的时移多媒体内容的社交媒体的处理
US20180018078A1 (en) Video-Production System With Social-Media Features
US9619123B1 (en) Acquiring and sharing content extracted from media content
JP2009239729A (ja) コンテンツのシーン出現を通知する装置、方法およびプログラム
US20220272425A1 (en) Systems and methods for summarizing missed portions of storylines
JP2008283409A (ja) メタデータ関連情報生成装置、メタデータ関連情報生成方法およびメタデータ関連情報生成プログラム
US8799356B2 (en) Method for synchronizing a Rich Media action with an audiovisual change, corresponding device and computer software, method for generating a Rich Media presentation and corresponding computer software
WO2017008498A1 (zh) 搜索节目的方法及装置
KR20110010083A (ko) 동영상 핑거프린트 정보에 기반한 동영상 마크업 데이터 생성 방법 및 이를 이용한 정보 제공 방법 및 시스템
WO2008087742A1 (ja) 動画再生システム、情報端末装置および情報表示方法
TWI474201B (zh) Construction system scene fragment, method and recording medium
TW201417571A (zh) 場景的摘要擷取與播放系統、方法及其記錄媒體

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17931633

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17931633

Country of ref document: EP

Kind code of ref document: A1