JP7236544B2 - ビデオ再生方法、装置、電子機器、記録媒体及びプログラム - Google Patents

ビデオ再生方法、装置、電子機器、記録媒体及びプログラム Download PDF

Info

Publication number
JP7236544B2
JP7236544B2 JP2021536282A JP2021536282A JP7236544B2 JP 7236544 B2 JP7236544 B2 JP 7236544B2 JP 2021536282 A JP2021536282 A JP 2021536282A JP 2021536282 A JP2021536282 A JP 2021536282A JP 7236544 B2 JP7236544 B2 JP 7236544B2
Authority
JP
Japan
Prior art keywords
video
important content
content
mark information
important
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021536282A
Other languages
English (en)
Other versions
JP2022524564A (ja
Inventor
明 月 張
金 ▲シン▼ 趙
広 慧 郭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CN202010131231.1A external-priority patent/CN111327958B/zh
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2022524564A publication Critical patent/JP2022524564A/ja
Application granted granted Critical
Publication of JP7236544B2 publication Critical patent/JP7236544B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47217End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for controlling playback functions for recorded or on-demand content, e.g. using progress bars, mode or play-point indicators or bookmarks
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/005Reproducing at a different information rate from the information rate of recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2387Stream processing in response to a playback request from an end-user, e.g. for trick-play
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/251Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/432Content retrieval operation from a local storage medium, e.g. hard-disk
    • H04N21/4325Content retrieval operation from a local storage medium, e.g. hard-disk by playing back content from the storage medium
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/4662Learning process for intelligent management, e.g. learning user preferences for recommending movies characterized by learning algorithms
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/654Transmission by server directed to the client
    • H04N21/6547Transmission by server directed to the client comprising parameters, e.g. for client setup
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • H04N21/8405Generation or processing of descriptive data, e.g. content descriptors represented by keywords
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Television Signal Processing For Recording (AREA)
  • Electrically Operated Instructional Devices (AREA)

Description

相互参照
本願は、PCT出願PCT/CN2020/133006と対応し、この出願は、出願日が2020年02月28日であり、出願番号が2020101312311であり、発明名称が「ビデオ再生方法、装置、電子機器及び記録媒体」である中国特許出願の優先権を主張し、ここでこれを参照とする。
本願は、コンピュータ応用技術に関し、特に、ビデオ処理分野のビデオ再生方法、装置、電子機器及び記憶媒体に関する。
5G時代が来るにつれて、ビデオはますます多くの伝搬経路を占める。ユーザは、ビデオを見ながらクリックまたはプログレスバーのドラッグによって、ビデオの再生速度を調節することができる。
しかし、このような方式では、ユーザが頻繁に操作を行う必要があり、これにより、ユーザの実現複雑さを増加し、そして、視聴していないコンテンツがユーザにとって未知であることが多いため、ユーザは、プログレスバー等を盲目的にドラッグして重要なコンテンツを見つけるしかなく、重要なコンテンツを見逃してしまい、ユーザの重要なコンテンツに対する取得等に影響を与えるおそれがある。
本願は、上記に鑑みてなされたものであって、ビデオ再生方法、装置、電子機器および記憶媒体を提供している。
ビデオ再生方法であって、
いずれかのビデオに対して、予めトレーニングされた機械モデルを用いて、前記ビデオにおける重要なコンテンツ及び非重要なコンテンツを識別し、識別結果に応じてマーク情報を追加することと、
端末装置が、前記ビデオを再生する際に、前記マーク情報に基づいて、前記ビデオにおける重要なコンテンツと、前記重要なコンテンツよりも再生速度が速い非重要なコンテンツとを区別し、異なる再生速度に応じて、前記重要なコンテンツと前記非重要なコンテンツとを再生するように、前記ビデオを再生要求している前記端末装置に送信することと、を含む。
本願の好ましい一実施例によれば、この方法は、サンプルビデオと、前記サンプルビデオを視聴するユーザが前記サンプルビデオに対してインタラクティブ行動を行う時間とを含むトレーニングサンプルを取得することと、前記トレーニングサンプルに基づいてトレーニングして前記機械モデルを取得することと、をさらに含む。
本願の好ましい一実施例によれば、前記機械モデルを用いて、前記ビデオにおける重要なコンテンツ及び非重要なコンテンツを識別する前に、前記ビデオの作成者が、前記ビデオの作成時に、前記マーク情報を追加したか否かを判定し、追加していない場合に、前記機械モデルを用いて、前記ビデオにおける重要なコンテンツと非重要なコンテンツとを識別することをさらに含む。
本願の好ましい一実施例によれば、この方法は、前記ビデオの作成者が前記ビデオの作成時に前記重要なコンテンツと前記非重要なコンテンツとに対して設定された異なる再生速度を、前記端末装置に供給し、前記端末装置が、設定された異なる再生速度に応じて、前記重要なコンテンツと前記非重要なコンテンツとを再生させることをさらに含む。
本願の好ましい一実施例によれば、前記トレーニングサンプルに基づいてトレーニングして前記機械モデルを取得することは、異なる種類のビデオに対して、1つの共通の機械モデルをトレーニングすることと、あるいは、異なる種類のビデオに対して、異なる種類に対応する機械モデルをそれぞれトレーニングすることと、を含む。
ビデオ再生方法であって、
いずれかのビデオを再生する際に、前記ビデオに設定されたマーク情報に基づいて、前記ビデオにおける重要なコンテンツと非重要なコンテンツとを区別することと、
異なる再生速度に応じて、前記重要なコンテンツと、前記重要なコンテンツよりも再生速度が速い前記非重要なコンテンツを再生することと、を含み、
前記マーク情報は、予めトレーニングされた機械モデルに基づいて前記ビデオにおける重要なコンテンツと非重要なコンテンツを識別して追加されたマーク情報を含む。
本願の好ましい一実施例によれば、前記機械モデルは、構築されたトレーニングサンプルに基づいてレーニングして得られ、前記トレーニングサンプルは、サンプルビデオと、前記サンプルビデオを視聴するユーザが前記サンプルビデオに対してインタラクティブ行動を行う時間とを含む。
本願の好ましい一実施例によれば、前記マーク情報は、
前記重要なコンテンツの開始時刻および終了時刻の位置に設定されるマーク情報と、
あるいは、前記非重要なコンテンツの開始時刻および終了時刻の位置に設定されるマーク情報と、を含む。
本願の好ましい一実施例によれば、前記マーク情報は、前記ビデオの作成者が前記ビデオの作成時に前記ビデオに追加されたマーク情報をさらに含む。
本願の好ましい一実施例によれば、異なる再生速度に基づいて前記重要なコンテンツ及び前記非重要なコンテンツを再生することは、
取得された前記ビデオの作成者が前記ビデオの作成時に前記重要なコンテンツと前記非重要なコンテンツとに対して設定した異なる再生速度に応じて、前記重要なコンテンツと前記非重要なコンテンツとを再生することと、
あるいは、前記ビデオを視聴するユーザが、前記重要なコンテンツと前記非重要なコンテンツに対して予め設定した異なる再生速度に応じて、前記重要なコンテンツと前記非重要なコンテンツを再生することと、を含む。
ビデオ処理装置であって、
いずれかのビデオに対して、予めトレーニングされた機械モデルを用いて、前記ビデオにおける重要なコンテンツ及び非重要なコンテンツを識別し、識別結果に応じてマーク情報を追加し、
端末装置が、前記ビデオを再生する際に、前記マーク情報に基づいて、前記ビデオにおける重要なコンテンツと、前記重要なコンテンツよりも再生速度が速い非重要なコンテンツとを区別し、異なる再生速度に応じて、前記重要なコンテンツと前記非重要なコンテンツとを再生するように、前記ビデオを再生要求している前記端末装置に送信するビデオ処理ユニットを含む。
本願の好ましい一実施例によれば、前記装置は、サンプルビデオと、前記サンプルビデオを視聴するユーザが前記サンプルビデオに対してインタラクティブ行動を行う時間とを含むトレーニングサンプルを取得し、前記トレーニングサンプルに基づいてトレーニングして前記機械モデルを取得する前処理ユニットをさらに含む。
本願の好ましい一実施例によれば、前記ビデオ処理ユニットは、さらに、前記機械モデルを用いて、前記ビデオにおける重要なコンテンツ及び非重要なコンテンツを識別する前に、前記ビデオの作成者が、前記ビデオの作成時に、前記マーク情報を追加したか否かを判定し、追加していない場合に、前記機械モデルを用いて、前記ビデオにおける重要なコンテンツと非重要なコンテンツとを識別する。
本願の好ましい一実施例によれば、前記ビデオ処理ユニットは、さらに、前記ビデオの作成者が前記ビデオの作成時に前記重要なコンテンツと前記非重要なコンテンツとに対して設定された異なる再生速度を、前記端末装置に供給し、前記端末装置が、設定された異なる再生速度に応じて、前記重要なコンテンツと前記非重要なコンテンツとを再生させる。
本願の好ましい一実施例によれば、前記ビデオ処理ユニットは、さらに、異なる種類のビデオに対して、1つの共通の機械モデルをトレーニングし、あるいは、異なる種類のビデオに対して、異なる種類に対応する機械モデルをそれぞれトレーニングする。
ビデオ再生装置であって、
いずれかのビデオを再生する際に、前記ビデオに設定されたマーク情報に基づいて、前記ビデオにおける重要なコンテンツと非重要なコンテンツとを区別するコンテンツ区別ユニットと、
異なる再生速度に応じて、前記重要なコンテンツと、前記重要なコンテンツよりも再生速度が速い前記非重要なコンテンツを再生するコンテンツ再生ユニットと、を含み、
前記マーク情報は、予めトレーニングされた機械モデルに基づいて前記ビデオにおける重要なコンテンツと非重要なコンテンツを識別して追加されたマーク情報を含む。
本願の好ましい一実施例によれば、前記機械モデルは、構築されたトレーニングサンプルに基づいてトレーニングして得られ、前記トレーニングサンプルは、サンプルビデオと、前記サンプルビデオを視聴するユーザが前記サンプルビデオに対してインタラクティブ行動を行う時間とを含む。
本願の好ましい一実施例によれば、前記マーク情報は、前記重要なコンテンツの開始時刻および終了時刻の位置に設定されるマーク情報と、あるいは、前記非重要なコンテンツの開始時刻および終了時刻の位置に設定されるマーク情報と、を含む。
本願の好ましい一実施例によれば、前記マーク情報は、前記ビデオの作成者が前記ビデオの作成時に前記ビデオに追加されたマーク情報をさらに含む。
本願の好ましい一実施例によれば、前記コンテンツ再生ユニットは、取得された前記ビデオの作成者が前記ビデオの作成時に前記重要なコンテンツと前記非重要なコンテンツとに対して設定した異なる再生速度に応じて、前記重要なコンテンツと前記非重要なコンテンツとを再生し、
あるいは、前記コンテンツ再生ユニットは、前記ビデオを視聴するユーザが、前記重要なコンテンツと前記非重要なコンテンツに対して予め設定した異なる再生速度に応じて、前記重要なコンテンツと前記非重要なコンテンツを再生する。
電子機器であって、
少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに通信可能に接続されたメモリと、を含み、
前記メモリは、前記少なくとも1つのプロセッサによって実行可能な命令を記憶し、前記命令は、前記少なくとも1つのプロセッサが上記の方法を実行するように、前記少なくとも1つのプロセッサによって実行される。
コンピュータ命令を記憶した非一時的なコンピュータ読み取り可能な記憶媒体であって、
コンピュータ命令は、前記コンピュータに上記の方法を実行させる。
コンピュータに、上記の方法を実現させるコンピュータ命令を含むコンピュータプログラム。
上記出願における一実施例は、以下の利点または有利な効果を有し、設定されたマーク情報に基づいて、ビデオにおける重要なコンテンツと非重要なコンテンツを自動的に区別し、異なる再生速度に応じて、重要なコンテンツと非重要なコンテンツを再生することができ、これにより、ユーザがプログレスバーを操作することなく、すなわち、ユーザ操作を簡単化し、かつ、重要なコンテンツを見逃すことなく、ビデオ再生速度を自動的に調節することにより、ユーザが速く消費させ重要なコンテンツを抽出させ、重要なコンテンツ情報を取得するための時間コストを低減するなど、ビデオを大きく変更することなく、マーク情報を追加するだけで、ビデオ作成時のオリジナルコンテンツを保持しつつ、視聴体験に影響を与えない;人工的にマークしてもよく、機械的にマークしてもよく、また、ビデオの作成者が再生速度を設定してもよく、ビデオを視聴するユーザが再生速度を設定してもよく、いずれも特定の方式に限定されず、実現上には非常に便利である;上記代替方式が有するその他の効果は、以下に具体的な実施例を組み合わせて説明する。
図面は、本技術案をよりよく理解するためのものであり、本願を限定するものではない。
図1は、本願に記載のビデオ再生方法の第一実施例のフローチャートである。 図2は、本願に記載のビデオ再生方法の第二実施例のフローチャートである。 図3は、本願に記載のビデオ再生方法の全体的な実現過程の模式図である。 図4は、本願に記載のビデオ再生速度を自動的に調節する前後のビデオ再生時間の比較の模式図である。 図5は、本願に記載のビデオ処理装置の実施例500の構成の模式図である。 図6は、本願に記載のビデオ再生装置の実施例600の構成の模式図である。 図7は、本願の実施例に記載の方法の電子機器のブロック図である。
以下、添付の図面を組み合わせて、本願の例示的な実施例を説明し、理解を容易にするために本願の実施例の様々な詳細を含むが、それらは単に例示的なものとみなされるべきである。したがって、当業者は、本願の範囲および精神から逸脱することなく、本明細書に記載された実施例に対して様々な変更および修正を行うことができることを認識するであろう。同様に、以下の説明では、説明の明確化および簡潔化のため、周知の機能及び構成についての記載が省略される。
また、ここでの「及び/又は」という用語は、単に関連オブジェクトを説明する関連関係を意味するものであって、3つの関係があり得ることを意味し、例えば、A及び/又はBとは、Aが単独で存在する場合、AとBが同時に存在する場合、Bが単独で存在する場合という3つの場合を意味する。また、本文における「/」は、一般的に、前後関係オブジェクトが「または」の関係であることを示す。
図1は、本願に記載のビデオ再生方法の第一実施例のフローチャートである。図1に示すように、以下の具体的な実現形態が含まれる。
101では、ビデオの何れかに対して、予めトレーニングされた機械モデルを用いて、ビデオにおける重要なコンテンツと非重要なコンテンツを識別し、識別結果に応じて、マーク情報を付加する。
102では、再生を要求する端末装置にビデオを送信し、端末装置は、ビデオの再生時に、マーク情報に基づいて、ビデオにおける重要なコンテンツと非重要なコンテンツを区別し、異なる再生速度に応じて重要なコンテンツ、および、重要なコンテンツよりも再生速度が速い非重要なコンテンツを再生する。
本実施例の技術案を実現するために、予めトレーニングして機械モデルを取得し、機械モデルを用いてビデオにおける重要なコンテンツと非重要なコンテンツを識別した後にマーク情報を付加することができる。機械モデルは、構築されたトレーニングサンプルからトレーニングされて得られる。各トレーニングサンプルは、サンプルビデオと、サンプルビデオを視聴するユーザがサンプルビデオに対してインタラクティブ行為を行う時間とを、含む。
例えば、ショートビデオの場合、視聴過程に、ユーザによるサムアップ(thumbs up)の発生、コメントウィンドウの呼び出し、コメントの配信、シェア等のインタラクティブ行為の時間が記録されてもよい。ライブ再生の場合、ライブを視聴するユーザによるプレゼントの上げ、リアルタイムのインタラクティブなどのインタラクティブ行為の時間が記録されてもよい。また、例えば、ロングビデオの場合、視聴過程に、ユーザによる弾幕等のインタラクティブ行為の時間が記録されてもよい。上記インタラクティブ行為を発生した場合、対応するビデオのコンテンツが通常に重要なコンテンツである。
如何にして上記トレーニングサンプルに基づいてトレーニングして機械モデルを取得するかのことは、従来技術であり、トレーニングの過程は、機械モデルが、特徴に応じて重要なコンテンツと非重要なコンテンツとを区別するために、重要なコンテンツの特徴を学習することを可能にすることである。
実際の応用では、例えば、ショートビデオ、ロングビデオ、ライブ再生などの異なる種類のビデオに対して、一つの共通の機械モデルをトレーニングし、相応的には、トレーニング時に用いるトレーニングサンプルには、異なる種類のサンプルビデオが含まれてもよい。あるいは、異なる種類のビデオに対して、それぞれに対応する機械モデルをトレーニングしてもよく、相応的には、いずれかの種類に対して、トレーニング時に用いるトレーニングサンプルには、その種類のサンプルビデオのみが含まれてもよい。後者の場合、各機械モデルのモデル構造は、通常、同一である。
また、マーク情報は、ビデオの作成者が、ビデオの作成時に、ビデオに付加するものであってもよいし、相応的には、機械モデルを利用して、ビデオの重要なコンテンツと非重要なコンテンツとを識別する前に、ビデオの作成者が、ビデオの作成時に、マーク情報を付加したか否かを判定してもよく、付加しなければ、機械モデルを利用して、ビデオの重要なコンテンツと非重要なコンテンツとを識別するようにしてもよいし、付加すれば、重複して付加する必要がなくなるようにしてもよい。すなわち、人工的なマーク方式を採用してもよいし、機械的なマーク方式を採用してもよい。
また、ビデオの作成者にとっては、どのビデオコンテンツが重要なコンテンツであるか、どのビデオコンテンツが非重要なコンテンツであるかのことが既知であり、ビデオを作成しながらマーク情報を付加するようにしてもよい。
また、ビデオの作成者は、ビデオの作成時に、重要なコンテンツと非重要なコンテンツに対して、異なる再生速度を設置することもできる。設定された異なる再生速度は、ビデオの再生が要求された場合、ある方式で伝えられてもよく、具体的な方式が限定されない。相応的には、ビデオ再生過程において、設定された異なる再生速度で、重要なコンテンツと非重要なコンテンツを再生することができる。あるいは、ビデオを視聴するユーザが予め重要なコンテンツと非重要なコンテンツとに対して設定された異なる再生速度に応じて、重要なコンテンツと非重要なコンテンツとを再生することなどもできる。
図2は、本願に記載のビデオ再生方法の第二実施例のフローチャートである。図2に示すように、以下の具体的な実現形態が含まれる。
201では、いずれかのビデオを再生する際に、ビデオに設けられたマーク情報に基づいて、ビデオにおける重要なコンテンツと非重要なコンテンツを区別し、前記マーク情報は、予めトレーニングして得られた機械モデルに基づいて、ビデオにおける重要なコンテンツと非重要なコンテンツを識別した後に付与したマーク情報を含む。
202では、異なる再生速度で、重要なコンテンツと、重要なコンテンツよりも再生速度が速い非重要なコンテンツとを再生する。
本実施例では、ビデオ再生速度を自動的に調節することができ、略して「重要なことを視聴する」ようにすることができる。
いずれのビデオに対しても、マーク情報に基づいてビデオにおける重要なコンテンツと非重要なコンテンツとを区別するように、マーク情報を設置することができる。
例えば、重要なコンテンツの開始時刻と終了時刻の位置にマーク情報を設けるようにしてもよいし、非重要なコンテンツの開始時刻と終了時刻の位置にマーク情報を設けるようにしてもよい。前記マーク情報の具体的な形態は、限定されなく、実際な需要に応じて設定されてもよく、例えば、挿入された特別なマークであってもよく、重要なコンテンツと非重要なコンテンツとを区別するためだけに、ビデオ再生コンテンツを変更することない。
1つのビデオには、重要なコンテンツが1つのセグメントだけ含まれる場合もあるし、複数のセグメント含まれる場合もある。重要なコンテンツの開始時刻と終了時刻にマークすれば、開始時刻から終了時刻までの時間帯に対応するビデオコンテンツが、重要なコンテンツとなり、残りのビデオコンテンツが、非重要なコンテンツとなる。非重要なコンテンツの開始時刻と終了時刻にマークすれば、開始時刻から終了時刻までの時間帯に対応するビデオコンテンツが、非重要なコンテンツとなり、残りのビデオコンテンツが、重要なコンテンツとなる。
例えば、あるビデオの総時間が8分であり、3分~5分の時間帯に対応するビデオコンテンツが重要なコンテンツである場合、3分の位置と5分の位置にそれぞれマーク情報を付加することができる。
また、前記マーク情報は、予めトレーニングして得られた機械モデルに基づいて、ビデオにおける重要なコンテンツと非重要なコンテンツを識別して付与したマーク情報であってもよい。あるいは、ビデオの作成者がビデオの作成時にビデオに付加するマーク情報であってもよい。即ち、人工的なマーク方式を採用してもよいし、機械的なマーク方式を採用してもよい。
ビデオの作成者にとっては、どのビデオコンテンツが重要なコンテンツであるか、どのビデオコンテンツが非重要なコンテンツであるかのことが既知であり、ビデオを作成しながらマーク情報を付加することができる。
あるいは、予めトレーニングして機械モデルを得ておき、機械モデルを利用してビデオにおける重要なコンテンツと非重要なコンテンツを識別した後にマーグ情報を付加するようにしてもよい。機械モデルは、構築されたトレーニングサンプルに基づいてトレーニングして得られる。各トレーニングサンプルは、サンプルビデオと、サンプルビデオを視聴するユーザがサンプルビデオに対してインタラクティブ行為を行う時間とを、含む。
例えば、ショートビデオの場合、視聴過程に、ユーザによるサムアップの発生、コメントウィンドウの呼び出し、コメントの配信、シェア等のインタラクティブ行為の時間が記録されてもよい。ライブ再生の場合、ライブを視聴するユーザによるプレゼントの上げ、リアルタイムのインタラクティブなどのインタラクティブ行為の時間が記録されてもよい。また、例えば、ロングビデオの場合、視聴過程に、ユーザによる弾幕等のインタラクティブ行為の時間が記録されてもよい。上記インタラクティブ行為を発生した場合、対応するビデオのコンテンツが通常に重要なコンテンツである。
如何にして上記トレーニングサンプルに基づいてトレーニングして機械モデルを取得するかのことは、従来技術であり、トレーニングの過程は、機械モデルが、特徴に応じて重要なコンテンツと非重要なコンテンツとを区別するために、重要なコンテンツの特徴を学習することを可能にすることである。
実際の応用では、例えば、ショートビデオ、ロングビデオ、ライブ再生などの異なる種類のビデオに対して、共通の機械モデルをトレーニングし、相応的には、トレーニング時に用いるトレーニングサンプルには、異なる種類のサンプルビデオが含まれてもよい。あるいは、異なる種類のビデオに対して、それぞれに対応する機械モデルをトレーニングしてもよく、相応的には、いずれかの種類に対して、トレーニング時に用いるトレーニングサンプルには、その種類のサンプルビデオのみが含まれてもよい。後者の場合、各機械モデルのモデル構造は、通常、同一である。
ビデオにおける重要なコンテンツと非重要なコンテンツに対して、異なる再生速度で再生することができ、非重要なコンテンツの再生速度が重要なコンテンツよりも速い。例えば、重要なコンテンツは、正常な速度である1倍速で再生され、非重要なコンテンツは、1.5倍速、または、2倍速で再生される。
ビデオを視聴する前に、ユーザが選択することができ、例えば、「重要なことを視聴する」か否かを選択することもでき、例えば、ビデオのインタフェースのある位置に一つのボタンを表示し、ユーザがオン・オフを選択することができ、オンにすれば、「重要なことを視聴する」ことを示し、相応的には、重要なコンテンツと非重要なコンテンツとを異なる再生速度で再生し、オフにすれば、「重要なことを視聴する」必要がなく、相応的には、伝統的な再生方式でビデオ全体を再生し、すなわち、1倍速で再生することができる。
また、重要なコンテンツと非重要なコンテンツとを、異なる再生速度で再生する場合、取得されたビデオの作成者がビデオの作成時に重要なコンテンツと非重要なコンテンツに対して設定した異なる再生速度で、重要なコンテンツと非重要なコンテンツを再生することができる。設定された異なる再生速度は、ユーザがビデオの再生を要求したときに、何らかの方法で伝えられてもよく、具体的には制限しない。相応的には、ビデオの再生中に、設定された異なる再生速度で、重要なコンテンツ及び非重要なコンテンツを再生することができる。あるいは、ビデオを視聴しているユーザが、予め、重要なコンテンツと非重要なコンテンツに対して設定した異なる再生速度で、重要なコンテンツと非重要なコンテンツとを再生するようにしてもよい。
上記の説明に基づいて、図3は、本願に記載のビデオ再生方法の全体的な実現過程の模式図である。図3に示すように、仮に、人工的なマーク方式を採用すれば、ビデオの作成者がビデオを作成しながらマーク情報を設定することができ、例えば、重要なコンテンツの開始時刻及び終了時刻の位置にマーカ情報を設定し、ビデオを再生する際に、設定されたマーカ情報に基づいて、ビデオにおける重要なコンテンツと非重要なコンテンツとを区別し、ビデオを視聴するユーザが予め設定した異なる再生速度で、重要なコンテンツを1倍速で再生し、非重要なコンテンツを1.5倍速で再生し、相応的には、ユーザは、ビデオの再生速度が自動的に調節したビデオのコンテンツを視聴することができる。
図4は、本願に記載のビデオ再生速度を自動的に調節した前後のビデオ再生時間の比較の模式図である。図4に示すように、仮に、あるビデオの総時間が8分であり、3分~5分の時間帯に対応するビデオコンテンツが重要なコンテンツであれば、0分~3分の時間帯と、5分~8分の時間帯とで、それぞれ1.5倍速で非重要なコンテンツを再生することができ(必要ならば、2つのセグメントの非重要なコンテンツを、それぞれ異なる再生速度で再生してもよい)、3分~5分の時間帯で、1倍速で重要なコンテンツを再生し、これにより、本来8分で再生される必要であるビデオは、6分だけ再生されることになる。
なお、前記した各方法実施例のそれぞれについて、説明を簡単にするために、それらを一連の動作の組み合わせとして記述したが、本願によれば、いくつかのステップが他の順序を採用し、または同時に行われるので、当業者は、本願が記述された動作の順序によって限定されないことを理解すべきである。次に、当業者は、明細書に記載された実施例が好ましい実施例に属し、係る動作及びモジュールが本願に必ずしも必要ではないことを理解すべきである。
要するに、本願の方法実施例に記載の技術案によれば、設定されたマーク情報に基づいて、ビデオにおける重要なコンテンツと非重要なコンテンツとを自動的に区別し、異なる再生速度に基づいて、重要なコンテンツと非重要なコンテンツとを再生することができ、これにより、ユーザによるプログレスバーに対する操作が必要ではなく、すなわち、ユーザ操作が簡略化され、かつ、重要なコンテンツを見逃すことがなく、ビデオの再生速度を自動的に調節することで、ユーザが重要なコンテンツを迅速に消費して抽出し、ユーザが重要なコンテンツ情報を取得する時間コスト等を低減し、ビデオを大きく変更する必要がなく、単にマーク情報を付加すればよく、ビデオ作成時の元のコンテンツを保持し、視聴体験に影響を与えなく、人工的なマーク方式を採用してもよく、機械的なマーク方式を採用してもよく、また、ビデオの作成者によって再生速度を設定してもよく、ビデオを視聴するユーザが再生速度を設定してもよく、いずれも特定の方式に限定されておらず、実現上には非常に便利である。
以上、方法実施例を説明したが、以下、装置実施例によって、本願に記載の技術案をさらに説明する。
図5は、本願に記載のビデオ処理装置の実施例500の構成の模式図である。図5に示すように、ビデオ処理ユニット502を含み、さらに、前処理ユニット501を含むことができる。
前処理ユニット501は、サンプルビデオと、サンプルビデオを視聴するユーザがサンプルビデオに対してインタラクティブ行為を行う時間とを含むトレーニングサンプルを取得し、トレーニングサンプルからトレーニングして機械モデルを取得する。
ビデオ処理ユニット502は、ビデオの何れかに対して、機械モデルを用いて、ビデオにおける重要なコンテンツと非重要なコンテンツを識別し、識別結果に応じて、マーク情報を付加する;再生を要求する端末装置にビデオを送信し、端末装置は、ビデオの再生時に、マーク情報に基づいて、ビデオにおける重要なコンテンツと非重要なコンテンツを区別し、異なる再生速度に応じて重要なコンテンツ、および、重要なコンテンツよりも再生速度が速い非重要なコンテンツを再生する。
ビデオ処理ユニット502は、機械モデルを用いてビデオにおける重要なコンテンツと非重要なコンテンツとを識別する前に、ビデオの作成者が、ビデオの作成時に、マーク情報を付加したか否かを判断し、付与していない場合に、機械モデルを用いて、ビデオにおける重要なコンテンツと非重要なコンテンツとを識別してもよい。
また、ビデオ処理ユニット502は、ビデオの作成者がビデオを作成する際に重要なコンテンツと非重要なコンテンツに対して設定した異なる再生速度を、端末装置に供給し、端末装置が、設定された異なる再生速度で、重要なコンテンツと非重要なコンテンツとを再生するようにしてもよい。
さらに、前処理ユニット501は、異なる種類のビデオに対して、トレーニングして1つの共通の機械モデルを取得してもよく、或いは、異なる種類のビデオに対して、それぞれトレーニングして異なる種類に対応する機械モデルを取得してもよい。
図6は、本願に記載のビデオ再生装置の実施例600の構成の模式図である。図6に示すように、コンテンツ区別ユニット601およびコンテンツ再生ユニット602を含む。
コンテンツ区別ユニット601は、いずれかのビデオを再生する際に、ビデオに設けられたマーク情報に基づいて、ビデオにおける重要なコンテンツと非重要なコンテンツとを区別し、ここで、マーク情報は、予めトレーニングして得られた機械モデルに基づいて、ビデオにおける重要なコンテンツと非重要なコンテンツを識別して付加したマーク情報を含む。
コンテンツ再生ユニット602は、異なる再生速度で、重要なコンテンツと、重要なコンテンツよりも再生速度が速い非重要なコンテンツとを再生する。
例えば、重要なコンテンツの開始時刻と終了時刻の位置にマーク情報を設けるようにしてもよいし、非重要なコンテンツの開始時刻と終了時刻の位置にマーク情報を設けるようにしてもよい。前記マーク情報の具体的な形態は限定されるものではなく、実際な需要に応じて設定することができる。
1つのビデオには、重要なコンテンツが1つのセグメントだけ含まれる場合もあるし、複数のセグメント含まれる場合もある。重要なコンテンツの開始時刻と終了時刻にマークすれば、開始時刻から終了時刻までの時間帯に対応するビデオコンテンツが、重要なコンテンツとなり、残りのビデオコンテンツが、非重要なコンテンツとなる。非重要なコンテンツの開始時刻と終了時刻にマークすれば、開始時刻から終了時刻までの時間帯に対応するビデオコンテンツが、非重要なコンテンツとなり、残りのビデオコンテンツが、重要なコンテンツとなる。
また、上述したように、前記マーク情報は、予めトレーニングして得られた機械モデルに基づいて、ビデオにおける重要なコンテンツと非重要なコンテンツを識別して付与したマーク情報であってもよい。あるいは、ビデオの作成者がビデオの作成時にビデオに付加するマーク情報であってもよい。即ち、人工的なマーク方式を採用してもよいし、機械的なマーク方式を採用してもよい。
機械モデルは、構築されたトレーニングサンプルに基づいてトレーニングして得られる。各トレーニングサンプルは、サンプルビデオと、サンプルビデオを視聴するユーザが前記サンプルビデオに対してインタラクティブ行為を行う時間とを、含む。
また、実際の応用では、例えば、ショートビデオ、ロングビデオ、ライブ再生などの異なる種類のビデオに対して、共通の機械モデルをトレーニングし、相応的には、トレーニング時に用いるトレーニングサンプルには、異なる種類のサンプルビデオが含まれてもよい。あるいは、異なる種類のビデオに対して、それぞれに対応する機械モデルをトレーニングしてもよく、相応的には、いずれかの種類に対して、トレーニング時に用いるトレーニングサンプルには、その種類のサンプルビデオのみが含まれてもよい。後者の場合、各機械モデルのモデル構造は、通常、同一である。
ビデオにおける重要なコンテンツと非重要なコンテンツに対して、コンテンツ再生ユニット602は、異なる再生速度で再生することができ、非重要なコンテンツの再生速度が重要なコンテンツよりも速い。例えば、重要なコンテンツは、正常な速度である1倍速で再生され、非重要なコンテンツは、1.5倍速、または、2倍速で再生される。
具体的には、コンテンツ再生ユニット602は、取得したビデオの作成者が、そのビデオの作成時に、重要なコンテンツと非重要なコンテンツに対して設定した異なる再生速度に基づいて、重要なコンテンツと非重要なコンテンツとを再生することができる。あるいは、コンテンツ再生ユニット602は、ビデオを視聴するユーザが、予め、重要なコンテンツと非重要なコンテンツに対して設定した異なる再生速度に基づいて、重要なコンテンツと非重要なコンテンツとを再生するようにしてもよい。
図5及び図6に示す装置実施例の具体的な動作フローについては、前述の方法実施例の関連説明を参照し、ここでは贅言しない。
要するに、本願の装置実施例に記載の技術案によれば、設定されたマーク情報に基づいて、ビデオにおける重要なコンテンツと非重要なコンテンツとを自動的に区別し、異なる再生速度に基づいて、重要なコンテンツと非重要なコンテンツとを再生することができ、これにより、ユーザによるプログレスバーに対する操作が必要ではなく、すなわち、ユーザ操作が簡略化され、かつ、重要なコンテンツを見逃すことがなく、ビデオの再生速度を自動的に調節することで、ユーザが重要なコンテンツを迅速に消費して抽出し、ユーザが重要なコンテンツ情報を取得する時間コスト等を低減し、ビデオを大きく変更する必要がなく、単にマーク情報を付加すればよく、ビデオ作成時の元のコンテンツを保持し、視聴体験に影響を与えなく、人工的なマーク方式を採用してもよく、機械的なマーク方式を採用してもよく、また、ビデオの作成者によって再生速度を設定してもよく、ビデオを視聴するユーザが再生速度を設定してもよく、いずれも特定の方式に限定されておらず、実現上には非常に便利である。
本願の実施例によれば、本願は、電子デバイス及び読み取り可能な記憶媒体をさらに提供している。
図7に示すように、本願の実施例による前記方法の電子機器のブロック図である。電子機器は、例えば、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレームコンピュータ、及び他の適切なコンピュータなどの様々な形態のデジタルコンピュータである。電子機器は、例えば、パーソナルデジタルプロセッシング、携帯電話、スマートフォン、ウェアラブルデバイス、及び他の類似なコンピューティングデバイス等、様々な形態のモバイルデバイスであってもよい。本明細書に示される部品、それらの接続及び関係、並びにそれらの機能は、単なる例示であり、本明細書に記載及び/又は請求される本願の実施を限定しない。
図7に示すように、当該電子機器は、1つまたは複数のプロセッサY01と、メモリY02と、高速インターフェースと低速インターフェースとを含む、各部品を接続するためのインターフェースとを備える。各部品は、異なるバスで互いに接続され、共通のマザーボード上に実装されてもよいし、必要に応じて他の形態で実装されてもよい。プロセッサは、電子機器で実行される命令を処理してもよく、外部入出力装置(例えば、インターフェースに結合された表示機器)にグラフィカル・ユーザー・インターフェースのグラフィック情報を表示するようにメモリ中またはメモリ上に記憶された命令を含む。他の実施形態では、必要に応じて、複数のプロセッサおよび/または複数のバスを、複数のメモリおよび複数のメモリと共に使用し得る。同様に、複数の電子機器を接続し、各機器が必要な操作の一部(例えば、サーバアレイ、ブレードサーバの集合、マルチプロセッサシステムなど)を提供するようにしてもよい。図7では、1つのプロセッサY01を例に挙げている。
メモリY02は、本願に提供される非一時的コンピュータ読み取り可能な記憶媒体である。前記メモリは、少なくとも1つのプロセッサに、本願に提供される方法を実行させるように、少なくとも1つのプロセッサによって実行可能な命令を記憶する。本願の非一時的コンピュータ読み取り可能な記憶媒体は、コンピュータに本願に提供される方法を実行させるためのコンピュータ命令を記憶する。
メモリY02は、非一時的コンピュータ読み取り可能な記憶媒体として、例えば、本願の実施例における方法に対応するプログラム命令/モジュールのような、非一時的ソフトウェアプログラム、非一時的コンピュータ実行可能なプログラム及びモジュールを記憶する。プロセッサY01は、メモリY02に記憶された非一時的ソフトウェアプログラム、命令およびモジュールを実行することによって、サーバの様々な機能アプリケーションおよびデータ処理を実行し、すなわち、上記方法の実施例における方法を実現する。
メモリY02は、記憶プログラム領域および記憶データ領域を含み、記憶プログラム領域は、オペレーティングシステム、少なくとも1つの機能に必要なアプリケーションを記憶し、記憶データ領域は、電子機器の使用により作成されたデータ等を記憶する。また、メモリY02は、高速ランダムアクセスメモリを含んでもよく、例えば少なくとも1つのディスク記憶デバイス、フラッシュメモリデバイス、または他の非一時的固体記憶デバイスなどの非一時的メモリを含んでもよい。いくつかの実施例では、メモリY02は、プロセッサY01から遠隔に配置されたメモリを選択することができ、それらの遠隔メモリは、ネットワークを介して、電子機器に接続され得る。上記ネットワークの例示は、インターネット、イントラネット、ブロックチェーンネットワーク、ローカルエリアネットワーク、移動体通信ネットワーク、及びそれらの組み合わせが挙げられるが、これらに限定されない。
電子機器は、入力装置Y03と、出力装置Y04とをさらに含んでもよい。プロセッサY01、メモリY02、入力装置Y03、及び出力装置Y04は、バス又は他の方式で接続されてもよく、図7では、バスで接続することを例に挙げている。
入力装置Y03は、入力された数字または文字情報を受信し、電子機器のユーザ設定および機能制御に関するキー信号入力を発生させることができ、例えば、タッチスクリーン、キーパッド、マウス、トラックパッド、タッチパッド、ポインティングバー、一つまたは複数のマウスボタン、トラックボール、ジョイスティックなどの入力装置である。出力装置Y04は、表示装置、補助照明装置、触覚フィードバック装置(例えば、振動モータ)などを含んでもよい。当該表示装置は、液晶ディスプレイ、発光ダイオードディスプレイ及びプラズマディスプレイを含むが、これらに限らない。いくつかの実施形態では、表示装置はタッチスクリーンであってもよい。
本明細書に記載のシステムおよび技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、特定用途向け集積回路、コンピュータハードウェア、ファームウェア、ソフトウェア、および/またはそれらの組合せで実現され得る。これらの様々な実施形態は、1つまたは複数のコンピュータプログラム内で実施されることを含み、当該1つまたは複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステム上で実行および/または解釈され、当該プログラマブルプロセッサは、専用または汎用のプログラマブルプロセッサであり、記憶システム、少なくとも1つの入力装置、および少なくとも1つの出力装置からデータおよび命令を受信し、データおよび命令を当該記憶システム、少なくとも1つの入力装置、および少なくとも1つの出力装置に送信する。
これらの計算プログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、またはコードとしても言われる)は、プログラマブルプロセッサの機械命令を含み、高級プロセス、および/またはオブジェクト指向プログラミング言語、および/またはアセンブリ/機械言語でこれらの計算プログラムを実施することができる。本明細書で使用される場合、「機械読み取り可能な媒体」および「コンピュータ読み取り可能な媒体」という用語は、機械命令および/またはデータをプログラマブルプロセッサのいずれかのコンピュータプログラム製品、デバイス、および/または装置(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス)に提供することであり、機械読み取り可能な信号としての機械命令を受信する機械読み取り可能な媒体を含む。「機械読み取り可能な信号」という用語は、機械命令および/またはデータをプログラマブルプロセッサに提供するための任意の信号である。
ユーザとのインタラクティブを提供するために、コンピュータで本明細書に記載されるシステムおよび技術を実施することができ、当該コンピュータは、ユーザに情報を表示するための表示装置(たとえば、陰極線管または液晶ディスプレイモニタ)と、ユーザがコンピュータに入力を提供し得るキーボードおよびポインティングデバイス(たとえば、マウスまたはトラックボール)とを有する。他の種類の装置は、ユーザとのインタラクティブを提供するために使用され得る。例えば、ユーザに提供されるフィードバックは、任意の形態の感覚フィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形態(例えば、音声入力、発話入力または触覚入力)でユーザからの入力を受信することができる。
本明細書で説明されるシステムおよび技術を、バックエンド部品を含むコンピューティングシステム(例えば、データサーバとして)、またはミドルウェア部品を含むコンピューティングシステム(例えば、アプリケーションサーバ)、またはフロントエンド部品を含むコンピューティングシステム(例えば、ユーザが本明細書で説明されるシステムおよび技術の実施形態とインタラクティブすることができるグラフィカルユーザインターフェースまたはウェブブラウザを有するユーザコンピュータ)、またはそのようなバックエンド部品、ミドルウェア部品、もしくはフロントエンド部品の任意の組合せを含むコンピューティングシステムにおいて実施され得る。任意の形態または媒体のデジタルデータ通信(例えば、通信ネットワーク)を介してシステムの部品を互いに接続することができる。通信ネットワークの例示は、ローカルエリアネットワーク、ワイドエリアネットワーク、ブロックチェーンネットワークおよびインターネットを含む。
コンピュータシステムは、クライアントおよびサーバを含み得る。クライアントおよびサーバは、一般に、互いから離れており、通常、通信ネットワークを介してインタラクティブしている。相応的なコンピュータで運行し、互いにクライアント-サーバ関係を有するコンピュータプログラムによって、クライアントとサーバの関係を生成する。
なお、上記に示された様々な形態のフローを用いて、ステップを並べ替え、追加、または削除することができることを理解されたい。例えば、本願に記載された各ステップは、並列的に実行されてもよく、順番に実行されてもよく、異なる順番で実行されてもよく、本願において開示された技術案の所望の結果を達成することができる限り、ここで制限されない。
上記の具体的な実施形態は、本願の保護範囲を限定するものではない。当業者であれば、設計の要求及び他の要因に応じて、各種の補正、組合、サブ組合および切り替えを行うことができることは明らかであろう。本願の思想及び原則における任意の補正、均等物及び改善は、本願の保護範囲に含まれるべきである。

Claims (19)

  1. ビデオ再生方法であって、プロセッサにより実行され、前記ビデオ再生方法は、
    いずれかのビデオに対して、予めトレーニングされた機械モデルを用いて、前記ビデオにおける重要なコンテンツ及び非重要なコンテンツを識別し、識別結果に応じてマーク情報を追加することと、
    端末装置が、前記ビデオを再生する際に、前記マーク情報に基づいて、前記ビデオにおける重要なコンテンツと、前記重要なコンテンツよりも再生速度が速い非重要なコンテンツとを区別し、異なる再生速度に応じて、前記重要なコンテンツと前記非重要なコンテンツとを再生するように、前記ビデオを再生要求している前記端末装置に送信することと、
    サンプルビデオと、前記サンプルビデオを視聴するユーザが前記サンプルビデオに対してインタラクティブ行動を行う時間とを含むトレーニングサンプルを取得することと、
    前記トレーニングサンプルに基づいてトレーニングして前記機械モデルを取得することと、を含む
    ビデオ再生方法。
  2. 前記機械モデルを用いて、前記ビデオにおける重要なコンテンツ及び非重要なコンテンツを識別する前に、
    前記ビデオの作成者が、前記ビデオの作成時に、前記マーク情報を追加したか否かを判定し、追加していない場合に、前記機械モデルを用いて、前記ビデオにおける重要なコンテンツと非重要なコンテンツとを識別することをさらに含む
    請求項1に記載のビデオ再生方法。
  3. この方法は、
    前記ビデオの作成者が前記ビデオの作成時に前記重要なコンテンツと前記非重要なコンテンツとに対して設定された異なる再生速度を、前記端末装置に供給し、前記端末装置が、設定された異なる再生速度に応じて、前記重要なコンテンツと前記非重要なコンテンツとを再生させること
    をさらに含む
    請求項1に記載のビデオ再生方法。
  4. 前記トレーニングサンプルに基づいてトレーニングして前記機械モデルを取得することは、
    異なる種類のビデオに対して、1つの共通の機械モデルをトレーニングすることと、
    あるいは、異なる種類のビデオに対して、前記異なる種類に対応する機械モデルをそれぞれトレーニングすることと、
    を含む
    請求項1に記載のビデオ再生方法。
  5. ビデオ再生方法であって、プロセッサにより実行され、前記ビデオ再生方法は、
    いずれかのビデオを再生する際に、前記ビデオに設定されたマーク情報に基づいて、前記ビデオにおける重要なコンテンツと非重要なコンテンツとを区別することと、
    異なる再生速度に応じて、前記重要なコンテンツと、前記重要なコンテンツよりも再生速度が速い前記非重要なコンテンツを再生することと、を含み、
    前記マーク情報は、予めトレーニングされた機械モデルに基づいて前記ビデオにおける重要なコンテンツと非重要なコンテンツを識別して追加されたマーク情報を含み、
    前記機械モデルは、構築されたトレーニングサンプルに基づいてトレーニングして得られ、前記トレーニングサンプルは、サンプルビデオと、前記サンプルビデオを視聴するユーザが前記サンプルビデオに対してインタラクティブ行動を行う時間とを含む
    ビデオ再生方法。
  6. 前記マーク情報は、
    前記重要なコンテンツの開始時刻および終了時刻の位置に設定されるマーク情報と、
    あるいは、前記非重要なコンテンツの開始時刻および終了時刻の位置に設定されるマーク情報と、を含む
    請求項5に記載のビデオ再生方法。
  7. 前記マーク情報は、前記ビデオの作成者が前記ビデオの作成時に前記ビデオに追加されたマーク情報をさらに含む
    請求項5に記載のビデオ再生方法。
  8. 異なる再生速度に基づいて前記重要なコンテンツ及び前記非重要なコンテンツを再生することは、
    取得された前記ビデオの作成者が前記ビデオの作成時に前記重要なコンテンツと前記非重要なコンテンツとに対して設定した異なる再生速度に応じて、前記重要なコンテンツと前記非重要なコンテンツとを再生することと、
    あるいは、前記ビデオを視聴するユーザが、前記重要なコンテンツと前記非重要なコンテンツに対して予め設定した異なる再生速度に応じて、前記重要なコンテンツと前記非重要なコンテンツを再生することと、を含む
    請求項5に記載のビデオ再生方法。
  9. いずれかのビデオに対して、予めトレーニングされた機械モデルを用いて、前記ビデオにおける重要なコンテンツ及び非重要なコンテンツを識別し、識別結果に応じてマーク情報を追加し、
    端末装置が、前記ビデオを再生する際に、前記マーク情報に基づいて、前記ビデオにおける重要なコンテンツと、前記重要なコンテンツよりも再生速度が速い非重要なコンテンツとを区別し、異なる再生速度に応じて、前記重要なコンテンツと前記非重要なコンテンツとを再生するように、前記ビデオを再生要求している前記端末装置に送信するビデオ処理ユニットを含み、
    サンプルビデオと、前記サンプルビデオを視聴するユーザが前記サンプルビデオに対してインタラクティブ行動を行う時間とを含むトレーニングサンプルを取得し、前記トレーニングサンプルに基づいてトレーニングして前記機械モデルを取得する前処理ユニットをさらに含む
    ビデオ処理装置。
  10. 前記ビデオ処理ユニットは、さらに、
    前記機械モデルを用いて、前記ビデオにおける重要なコンテンツ及び非重要なコンテンツを識別する前に、
    前記ビデオの作成者が、前記ビデオの作成時に、前記マーク情報を追加したか否かを判定し、追加していない場合に、前記機械モデルを用いて、前記ビデオにおける重要なコンテンツと非重要なコンテンツとを識別する
    請求項9に記載のビデオ処理装置。
  11. 前記ビデオ処理ユニットは、さらに、
    前記ビデオの作成者が前記ビデオの作成時に前記重要なコンテンツと前記非重要なコンテンツとに対して設定された異なる再生速度を、前記端末装置に供給し、前記端末装置が、設定された異なる再生速度に応じて、前記重要なコンテンツと前記非重要なコンテンツとを再生させる
    請求項9に記載のビデオ処理装置。
  12. 前記ビデオ処理ユニットは、さらに、
    異なる種類のビデオに対して、1つの共通の機械モデルをトレーニングし、
    あるいは、異なる種類のビデオに対して、前記異なる種類に対応する機械モデルをそれぞれトレーニングする、
    請求項9に記載のビデオ処理装置。
  13. いずれかのビデオを再生する際に、前記ビデオに設定されたマーク情報に基づいて、前記ビデオにおける重要なコンテンツと非重要なコンテンツとを区別するコンテンツ区別ユニットと、
    異なる再生速度に応じて、前記重要なコンテンツと、前記重要なコンテンツよりも再生速度が速い前記非重要なコンテンツを再生するコンテンツ再生ユニットと、を含み、
    前記マーク情報は、予めトレーニングされた機械モデルに基づいて前記ビデオにおける重要なコンテンツと非重要なコンテンツを識別して追加されたマーク情報を含み、
    前記機械モデルは、構築されたトレーニングサンプルに基づいてトレーニングして得られ、前記トレーニングサンプルは、サンプルビデオと、前記サンプルビデオを視聴するユーザが前記サンプルビデオに対してインタラクティブ行動を行う時間とを含む
    ビデオ再生装置。
  14. 前記マーク情報は、
    前記重要なコンテンツの開始時刻および終了時刻の位置に設定されるマーク情報と、
    あるいは、前記非重要なコンテンツの開始時刻および終了時刻の位置に設定されるマーク情報と、を含む
    請求項13に記載のビデオ再生装置。
  15. 前記マーク情報は、前記ビデオの作成者が前記ビデオの作成時に前記ビデオに追加されたマーク情報をさらに含む
    請求項13に記載のビデオ再生装置。
  16. 前記コンテンツ再生ユニットは、取得された前記ビデオの作成者が前記ビデオの作成時に前記重要なコンテンツと前記非重要なコンテンツとに対して設定した異なる再生速度に応じて、前記重要なコンテンツと前記非重要なコンテンツとを再生し、
    あるいは、前記コンテンツ再生ユニットは、前記ビデオを視聴するユーザが、前記重要なコンテンツと前記非重要なコンテンツに対して予め設定した異なる再生速度に応じて、前記重要なコンテンツと前記非重要なコンテンツを再生する
    請求項13に記載のビデオ再生装置。
  17. 少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサに通信可能に接続されたメモリと、を含み、
    前記メモリは、前記少なくとも1つのプロセッサによって実行可能な命令を記憶し、前記命令は、前記少なくとも1つのプロセッサが請求項1~8のいずれか一項に記載の方法を実行するように、前記少なくとも1つのプロセッサによって実行される
    電子機器。
  18. コンピュータ命令は、コンピュータに請求項1~8のいずれか一項に記載の方法を実行させる
    コンピュータ命令を記憶した非一時的なコンピュータ読み取り可能な記憶媒体。
  19. コンピュータに、請求項1~8のいずれか1項に記載の方法を実現させるコンピュータ命令を含むコンピュータプログラム。
JP2021536282A 2020-02-28 2020-12-01 ビデオ再生方法、装置、電子機器、記録媒体及びプログラム Active JP7236544B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010131231.1A CN111327958B (zh) 2020-02-28 2020-02-28 视频播放方法、装置、电子设备及存储介质
CN202010131231.1 2020-02-28
PCT/CN2020/133006 WO2021169458A1 (zh) 2020-02-28 2020-12-01 视频播放方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
JP2022524564A JP2022524564A (ja) 2022-05-09
JP7236544B2 true JP7236544B2 (ja) 2023-03-09

Family

ID=76865360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021536282A Active JP7236544B2 (ja) 2020-02-28 2020-12-01 ビデオ再生方法、装置、電子機器、記録媒体及びプログラム

Country Status (4)

Country Link
US (1) US20220328076A1 (ja)
EP (1) EP3896987A4 (ja)
JP (1) JP7236544B2 (ja)
KR (1) KR102545040B1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114007122B (zh) * 2021-10-13 2024-03-15 深圳Tcl新技术有限公司 一种视频播放方法、装置、电子设备和存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003153139A (ja) 2001-11-09 2003-05-23 Canon Inc 画像再生装置
JP2008022103A (ja) 2006-07-11 2008-01-31 Matsushita Electric Ind Co Ltd テレビ番組動画像ハイライト抽出装置及び方法
JP2018124969A (ja) 2017-02-03 2018-08-09 富士ゼロックス株式会社 複数のメディアセグメントを備えるメディアファイルのサマリを生成する方法、プログラム、およびメディア分析デバイス
JP2019032739A (ja) 2017-08-09 2019-02-28 株式会社ユピテル 再生装置および再生方法ならびにそのプログラムならびに記録装置および記録装置の制御方法等

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09147472A (ja) * 1995-11-27 1997-06-06 Sanyo Electric Co Ltd 映像・音声再生装置
US9288511B2 (en) * 2011-02-18 2016-03-15 Futurewei Technologies, Inc. Methods and apparatus for media navigation
EP2819418A1 (en) * 2013-06-27 2014-12-31 British Telecommunications public limited company Provision of video data
CN109963184B (zh) 2017-12-14 2022-04-29 阿里巴巴集团控股有限公司 一种音视频网络播放的方法、装置以及电子设备
US10789990B2 (en) * 2018-12-17 2020-09-29 International Business Machines Corporation Video data learning and prediction
US10741215B1 (en) * 2019-06-28 2020-08-11 Nvidia Corporation Automatic generation of video playback effects
US11154773B2 (en) * 2019-10-31 2021-10-26 Nvidia Corpration Game event recognition

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003153139A (ja) 2001-11-09 2003-05-23 Canon Inc 画像再生装置
JP2008022103A (ja) 2006-07-11 2008-01-31 Matsushita Electric Ind Co Ltd テレビ番組動画像ハイライト抽出装置及び方法
JP2018124969A (ja) 2017-02-03 2018-08-09 富士ゼロックス株式会社 複数のメディアセグメントを備えるメディアファイルのサマリを生成する方法、プログラム、およびメディア分析デバイス
JP2019032739A (ja) 2017-08-09 2019-02-28 株式会社ユピテル 再生装置および再生方法ならびにそのプログラムならびに記録装置および記録装置の制御方法等

Also Published As

Publication number Publication date
KR20210087096A (ko) 2021-07-09
EP3896987A4 (en) 2022-04-13
US20220328076A1 (en) 2022-10-13
EP3896987A1 (en) 2021-10-20
KR102545040B1 (ko) 2023-06-20
JP2022524564A (ja) 2022-05-09

Similar Documents

Publication Publication Date Title
WO2021169458A1 (zh) 视频播放方法、装置、电子设备及存储介质
TWI698122B (zh) 一種彈幕展示方法及客戶端
TWI699998B (zh) 彈幕信息的處理方法及客戶端
CA2975411C (en) Methods and devices for synchronizing and sharing media items
CN112153454B (zh) 提供多媒体内容的方法、装置和设备
CN111225236B (zh) 生成视频封面的方法、装置、电子设备以及计算机可读存储介质
JP2021149963A (ja) 情報処理方法、装置、電子機器及び記憶媒体
JP7263660B2 (ja) ビデオ処理方法、装置、電子機器及び記憶媒体
WO2022000983A1 (zh) 视频处理方法、装置、电子设备和存储介质
JP7246487B2 (ja) ビデオにおけるホットスポットセグメントを抽出する方法、装置、電子機器、記憶媒体およびコンピュータプログラム
US20230045363A1 (en) Video playback method and apparatus, computer device, and storage medium
WO2023124864A1 (zh) 互动方法、***及电子设备
JP2017049968A (ja) ユーザインタラクションを検出、分類及び可視化する方法、システム及びプログラム
CN111031373A (zh) 视频播放方法、装置、电子设备及计算机可读存储介质
JP7236544B2 (ja) ビデオ再生方法、装置、電子機器、記録媒体及びプログラム
US10575043B2 (en) Navigating a plurality of video content items
Bibiloni et al. Automatic collection of user behavior in 360 multimedia
CN111638787A (zh) 用于展示信息的方法和装置
US20210392394A1 (en) Method and apparatus for processing video, electronic device and storage medium
US11249823B2 (en) Methods and systems for facilitating application programming interface communications
US10990456B2 (en) Methods and systems for facilitating application programming interface communications
CN115442650B (zh) 弹幕信息处理方法、装置、弹幕信息处理设备及存储介质
KR102399661B1 (ko) 원격 접속을 위한 장치 및 방법
KR102550378B1 (ko) 짧은 비디오의 생성 방법, 플랫폼, 전자 기기, 저장 매체 및 컴퓨터 프로그램 제품
CN111726687B (zh) 用于生成显示数据的方法和装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210621

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230227

R150 Certificate of patent or registration of utility model

Ref document number: 7236544

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150