CN110582025A - 用于处理视频的方法和装置 - Google Patents

用于处理视频的方法和装置 Download PDF

Info

Publication number
CN110582025A
CN110582025A CN201810585416.2A CN201810585416A CN110582025A CN 110582025 A CN110582025 A CN 110582025A CN 201810585416 A CN201810585416 A CN 201810585416A CN 110582025 A CN110582025 A CN 110582025A
Authority
CN
China
Prior art keywords
target video
information
target
dubbing
clip
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810585416.2A
Other languages
English (en)
Other versions
CN110582025B (zh
Inventor
郑烨翰
罗雨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201810585416.2A priority Critical patent/CN110582025B/zh
Priority to US16/352,526 priority patent/US10824874B2/en
Priority to KR1020190029042A priority patent/KR20190139751A/ko
Priority to EP19162866.8A priority patent/EP3579140A1/en
Priority to JP2019052669A priority patent/JP6986527B2/ja
Publication of CN110582025A publication Critical patent/CN110582025A/zh
Priority to KR1020210053261A priority patent/KR102394756B1/ko
Application granted granted Critical
Publication of CN110582025B publication Critical patent/CN110582025B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • G06V20/47Detecting features for summarising video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/75Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7844Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using original textual content or text extracted from visual content or transcript of audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/7867Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2353Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/466Learning process for intelligent management, e.g. learning user preferences for recommending movies
    • H04N21/4668Learning process for intelligent management, e.g. learning user preferences for recommending movies for recommending content, e.g. movies
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Software Systems (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

本申请实施例公开了用于处理视频的方法和装置。该方法的一具体实施方式包括:获取目标视频和目标视频的目标视频元素信息;基于目标视频元素信息,从目标视频中提取目标视频片段;基于预设的、视频元素信息与视频片段的关键词确定方式的对应关系,得到表征目标视频片段的类别的关键词;将关键词与预设的标签信息集合进行匹配,得到目标视频片段的标签信息,以及关联存储目标视频片段和标签信息。该实施方式提高了对视频片段添加标签信息的准确性,丰富了对视频片段添加标签信息的手段。

Description

用于处理视频的方法和装置
技术领域
本申请实施例涉及计算机技术领域,具体涉及用于处理视频的方法和装置。
背景技术
现有技术中,为了实现对视频内容的分类,需要对视频进行添加标签的处理(例如,标签可以是视频内容的简介、视频内容的关键词、视频在某段时间的搜索量的排名等),使视频内容的分类更加细化。以视频推荐技术为例,可以将视频的标签与用户关注的信息相结合,从而达到更准确地向用户推荐视频的目的。
发明内容
本申请实施例提出了用于处理视频的方法和装置,以及用于生成推荐信息的方法和装置。
第一方面,本申请实施例提供了一种用于处理视频的方法,该方法包括:获取目标视频和目标视频的目标视频元素信息;基于目标视频元素信息,从目标视频中提取目标视频片段;基于预设的、视频元素信息与视频片段的关键词确定方式的对应关系,得到表征目标视频片段的类别的关键词;将关键词与预设的标签信息集合进行匹配,得到目标视频片段的标签信息,以及关联存储目标视频片段和标签信息。
在一些实施例中,目标视频元素信息为目标视频包括的图像帧;以及基于目标视频元素信息,从目标视频中提取目标视频片段,包括:对于目标视频包括的图像帧,对该图像帧进行图像识别,得到该图像帧的图像识别结果;将图像识别结果相关联的、且在目标视频中连续排列的图像帧所在的视频片段确定为目标视频片段。
在一些实施例中,基于预设的、视频元素信息与视频片段的关键词确定方式的对应关系,得到表征目标视频片段的类别的关键词,包括:基于预设的、图像识别结果与关键词的对应关系,确定目标视频片段包括的图像帧的图像识别结果对应的关键词作为目标视频片段的关键词。
在一些实施例中,目标视频元素信息为目标视频包括的图像帧对应的文字信息的集合;以及基于目标视频元素信息,从目标视频中提取目标视频片段,包括:对于目标视频包括的图像帧,提取该图像帧对应的文字信息包括的目标词汇;将对应的目标词汇相关联的图像帧所在的视频片段确定为目标视频片段。
在一些实施例中,基于预设的、视频元素信息与视频片段的关键词确定方式的对应关系,得到表征目标视频片段的类别的关键词,包括:从目标视频片段包括的图像帧对应的目标词汇中,选择目标词汇作为目标视频片段的关键词。
在一些实施例中,目标视频元素信息包括目标视频包括的图像帧对应的文字信息的集合,以及目标视频的文字简介信息;以及基于目标视频元素信息,从目标视频中提取目标视频片段,包括:对于目标视频包括的图像帧,确定该图像帧对应的文字信息与文字简介信息的相似度;将与大于预设的相似度阈值的相似度所对应的图像帧相关联的图像帧所在的视频片段确定为目标视频片段。
在一些实施例中,基于预设的、视频元素信息与视频片段的关键词确定方式的对应关系,得到表征目标视频片段的类别的关键词,包括:对于目标视频片段包括的图像帧,提取该图像帧对应的文字信息包括的目标词汇;从目标视频片段包括的图像帧对应的目标词汇中,选择目标词汇作为目标视频片段的关键词。
在一些实施例中,目标视频元素信息为目标视频包括的图像帧对应的弹幕信息的集合;以及基于目标视频元素信息,从目标视频中提取目标视频片段,包括:对于目标视频包括的图像帧,确定该图像帧对应的弹幕信息的数量;将对应的弹幕信息的数量大于预设的数量阈值、且在目标视频中连续排列的图像帧所在的视频片段确定为目标视频片段。
在一些实施例中,基于预设的、视频元素信息与视频片段的关键词确定方式的对应关系,得到表征目标视频片段的类别的关键词,包括:对于目标视频片段包括的图像帧,对该图像帧对应的弹幕信息进行识别,得到表征该图像帧对应的弹幕信息所属类别的弹幕类别信息作为目标视频片段的关键词。
在一些实施例中,目标视频元素信息为目标视频的配音信息;以及基于目标视频元素信息,从目标视频中提取目标视频片段,包括:对配音信息进行音频识别,得到至少一条配音类别信息和配音类别信息对应的、配音信息包括的配音片段,其中,配音类别信息用于表征对应的配音片段所属的类别;从至少一条配音类别信息中选择目标配音类别信息,以及将目标配音类别信息对应的配音片段所对应的视频片段确定为目标视频片段。
在一些实施例中,基于预设的、视频元素信息与视频片段的关键词确定方式的对应关系,得到表征目标视频片段的类别的关键词,包括:基于预设的、配音类别信息与音频识别方式的对应关系,对目标视频片段对应的配音片段进行识别,得到表征目标视频片段对应的配音片段所属类别的关键词作为目标视频片段的关键词。
第二方面,本申请实施例提供了一种用于生成推荐信息的方法,该方法包括:获取表征目标用户关注的内容的关注信息,将关注信息与预设的标签信息进行匹配,其中,标签信息是根据上述第一方面中任一实现方式描述的方法得到的,且标签信息具有对应的视频片段;响应于确定匹配成功,生成用于推荐视频片段的推荐信息。
第三方面,本申请实施例提供了一种用于处理视频的装置,该装置包括:获取单元,被配置成获取目标视频和目标视频的目标视频元素信息;提取单元,被配置成基于目标视频元素信息,从目标视频中提取目标视频片段;确定单元,被配置成基于预设的、视频元素信息与视频片段的关键词确定方式的对应关系,得到表征目标视频片段的类别的关键词;存储单元,被配置成将关键词与预设的标签信息集合进行匹配,得到目标视频片段的标签信息,以及关联存储目标视频片段和标签信息。
在一些实施例中,目标视频元素信息为目标视频包括的图像帧;以及提取单元包括:第一识别模块,被配置成对于目标视频包括的图像帧,对该图像帧进行图像识别,得到该图像帧的图像识别结果;第一确定模块,被配置成将图像识别结果相关联的、且在目标视频中连续排列的图像帧所在的视频片段确定为目标视频片段。
在一些实施例中,确定单元进一步被配置成基于预设的、图像识别结果与关键词的对应关系,确定目标视频片段包括的图像帧的图像识别结果对应的关键词作为目标视频片段的关键词。
在一些实施例中,目标视频元素信息为目标视频包括的图像帧对应的文字信息的集合;以及提取单元包括:第一提取模块,被配置成对于目标视频包括的图像帧,提取该图像帧对应的文字信息包括的目标词汇;第二确定模块,被配置成将对应的目标词汇相关联的图像帧所在的视频片段确定为目标视频片段。
在一些实施例中,确定单元进一步被配置成从目标视频片段包括的图像帧对应的目标词汇中,选择目标词汇作为目标视频片段的关键词。
在一些实施例中,目标视频元素信息包括目标视频包括的图像帧对应的文字信息的集合,以及目标视频的文字简介信息;以及提取单元包括:第三确定模块,被配置成对于目标视频包括的图像帧,确定该图像帧对应的文字信息与文字简介信息的相似度;第四确定模块,被配置成将与大于预设的相似度阈值的相似度所对应的图像帧相关联的图像帧所在的视频片段确定为目标视频片段。
在一些实施例中,确定单元包括:第二提取模块,被配置成对于目标视频片段包括的图像帧,提取该图像帧对应的文字信息包括的目标词汇;第一选择模块,被配置成从目标视频片段包括的图像帧对应的目标词汇中,选择目标词汇作为目标视频片段的关键词。
在一些实施例中,目标视频元素信息为目标视频包括的图像帧对应的弹幕信息的集合;以及提取单元包括:第五确定模块,被配置成对于目标视频包括的图像帧,确定该图像帧对应的弹幕信息的数量;第六确定模块,被配置成将对应的弹幕信息的数量大于预设的数量阈值、且在目标视频中连续排列的图像帧所在的视频片段确定为目标视频片段。
在一些实施例中,确定单元进一步被配置成对于目标视频片段包括的图像帧,对该图像帧对应的弹幕信息进行识别,得到表征该图像帧对应的弹幕信息所属类别的弹幕类别信息作为目标视频片段的关键词。
在一些实施例中,目标视频元素信息为目标视频的配音信息;以及提取单元包括:第二识别模块,被配置成对配音信息进行音频识别,得到至少一条配音类别信息和配音类别信息对应的、配音信息包括的配音片段,其中,配音类别信息用于表征对应的配音片段所属的类别;第二选择模块,被配置成从至少一条配音类别信息中选择目标配音类别信息,以及将目标配音类别信息对应的配音片段所对应的视频片段确定为目标视频片段。
在一些实施例中,确定单元进一步被配置成基于预设的、配音类别信息与音频识别方式的对应关系,对目标视频片段对应的配音片段进行识别,得到表征目标视频片段对应的配音片段所属类别的关键词作为目标视频片段的关键词。
第四方面,本申请实施例提供了一种用于生成推荐信息的装置,该装置包括:获取单元,被配置成获取表征目标用户关注的内容的关注信息,将关注信息与预设的标签信息进行匹配,其中,标签信息是根据上述第一方面中的任一实现方式描述的方法得到的,且标签信息具有对应的视频片段;生成单元,被配置成响应于确定匹配成功,生成用于推荐视频片段的推荐信息。
第五方面,本申请实施例提供了一种服务器,该服务器包括:一个或多个处理器;存储装置,其上存储有一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面或第二方面中任一实现方式描述的方法。
第六方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面或第二方面中任一实现方式描述的方法。
本申请实施例提供的用于处理视频的方法和装置,通过利用目标视频的目标视频元素信息,从目标视频中提取出目标视频片段,再基于预设的关键词确定方式,得到目标视频片段的关键词,最后将关键词与预设的标签信息集合进行匹配,得到目标视频片段的标签信息,以及关联存储目标视频片段和标签信息,从而提高了对视频片段添加标签信息的准确性,丰富了对视频片段添加标签信息的手段。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请的一个实施例可以应用于其中的示例性***架构图;
图2是根据本申请的用于处理视频的方法的一个实施例的流程图;
图3是根据本申请的用于处理视频的方法的一个应用场景的示意图;
图4是根据本申请的用于处理视频的方法的又一个实施例的流程图;
图5是根据本申请的用于处理视频的方法的又一个实施例的流程图;
图6是根据本申请的用于处理视频的方法的又一个实施例的流程图;
图7是根据本申请的用于处理视频的方法的又一个实施例的流程图;
图8是根据本申请的用于处理视频的方法的又一个实施例的流程图;
图9是根据本申请的生成推荐信息的方法的一个实施例的流程图;
图10是根据本申请的用于处理视频的装置的一个实施例的结构示意图;
图11是根据本申请的用于生成推荐信息的装置的一个实施例的结构示意图;
图12是适于用来实现本申请实施例的服务器的计算机***的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请实施例的用于处理视频的方法或用于处理视频的装置的示例性***架构100。
如图1所示,***架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如视频播放类应用、网页浏览器应用等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有显示屏并且支持视频播放的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上播放的视频提供支持的后台视频资源服务器。后台视频资源服务器可以对获取的视频(例如从终端设备或其他服务器获取的视频)进行处理,并将处理结果(例如视频片段和视频片段的标签信息)进行存储,或者将视频片段推送给终端设备。
需要说明的是,本申请实施例所提供的用于处理视频的方法或用于生成推荐信息的方法一般由服务器105执行,相应地,用于处理视频的装置或用于生成推荐信息的装置一般设置于服务器105中。
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的用于处理视频的方法的一个实施例的流程200。该用于处理视频的方法,包括以下步骤:
步骤201,获取目标视频和目标视频的目标视频元素信息。
在本实施例中,用于处理视频的方法的执行主体(例如图1所示的服务器)可以通过有线连接方式或者无线连接方式从远程或者从本地获取目标视频和目标视频的目标视频元素信息。其中,目标视频可以是预先设置的某个视频集合(例如某视频网站提供的视频)中的视频。视频元素信息可以是目标视频对应的各种信息(例如字幕、配音、图像帧、名称、播放时间等信息),目标视频元素信息可以包括上述各种信息中的至少一种。
步骤202,基于目标视频元素信息,从目标视频中提取目标视频片段。
在本实施例中,基于步骤201中得到的目标视频元素信息,上述执行主体可以从目标视频中提取目标视频片段。具体地,上述执行主体可以按照各种方式从目标视频中提取目标视频片段。例如,当目标视频元素信息是目标视频包括的图像帧时,上述执行主体可以对每个图像帧进行识别,得到每个图像帧包括的物体图像的类别,将相同类别的图像帧(例如包括武器图像的图像帧)对应的视频片段确定为目标视频片段。
步骤203,基于预设的、视频元素信息与视频片段的关键词确定方式的对应关系,得到表征目标视频片段的类别的关键词。
在本实施例中,上述执行主体可以基于预设的、视频元素信息与视频片段的关键词确定方式的对应关系,得到表征目标视频片段的类别的关键词。其中,上述视频元素信息与关键词确定方式的对应关系可以由预设的程序列表表征,该程序列表中的程序可以对应于至少一个视频元素信息。作为示例,假设目标视频元素信息为目标视频包括的图像帧,上述执行主体可以自动地或者按照技术人员的操作运行对应的程序,该程序利用步骤202中得到的每个图像帧的识别结果,将目标视频片段包括的图像帧的识别结果确定为目标视频片段的关键词;或者,该程序可以对目标视频片段包括的图像帧进行再次识别,进一步识别出更多的信息(例如每个图像帧中包括的物品的数量、人物的动作等信息)作为目标视频片段的关键词。
步骤204,将关键词与预设的标签信息集合进行匹配,得到目标视频片段的标签信息,以及关联存储目标视频片段和标签信息。
在本实施例中,基于步骤203得到的关键词,上述执行主体可以将关键词与预设的标签信息集合进行匹配,得到目标视频片段的标签信息,以及关联存储目标视频片段和标签信息。其中,标签信息集合可以包括至少一个子集合,每个子集合可以是一系列相关的标签信息的集合。例如,某个子集合包括如下标签信息:“战争”、“战斗”、“武器”等,当目标视频片段的关键词包含于该子集合包括的标签信息时,可以将该子集合中的至少一个标签信息(例如“战争”)确定为目标视频片段的标签信息。
实践中,上述标签信息集合可以是预设的知识库,该知识库中存储有多条知识信息,每条知识信息对应一系列关键信息。例如,对于标记为“战争”的知识信息,该知识信息可以包括如下关键信息:“人数大于等于2”、“使用武器”、“流血”等,当目标视频片段的关键词符合上述关键信息中的至少一条时,可以将目标视频片段的标签信息设置为“战争”。再例如,某知识信息标记为一首歌曲的名称,则该知识信息可以包括歌曲的演唱者、歌曲的作者、歌曲的风格(例如“婉约”、“豪放”等)等关键信息。当目标视频片的关键词为该歌曲的名称时,可以将该歌曲名称对应的至少一条关键信息作为目标视频片段的标签信息。
继续参见图3,图3是根据本实施例的用于处理视频的方法的应用场景的一个示意图。在图3的应用场景中,服务器301首先从本地获取目标视频302(例如某电影)和目标视频302的目标视频元素信息303,其中,目标视频元素信息303为目标视频包括的图像帧。然后,服务器301对每个图像帧进行识别,将包含武器图像且包含至少两个人物图像的图像帧对应的视频片段确定为目标视频片段304。随后,服务器301基于预设的、视频元素信息与视频片段的关键词确定方式的对应关系,得到表征目标视频片段的类别的关键词。其中,上述关键词确定方式为将目标视频片段包括的图像帧的识别结果(即“武器”、“多人”)确定为目标视频片段的关键词305。最后,服务器301将关键词305与预设的标签信息集合进行匹配,在该标签信息集合中,标记为“战争”的子标签信息集合中包含上述关键词,则确定目标视频片段304的标签信息为“战争”(即图中的307)。最后服务器301将目标视频片段304和标签信息307关联存储在服务器301的存储设备上。
本申请的上述实施例提供的方法,通过利用目标视频的目标视频元素信息,从目标视频中提取出目标视频片段,再基于预设的关键词确定方式,得到目标视频片段的关键词,最后将关键词与预设的标签信息集合进行匹配,得到目标视频片段的标签信息,以及关联存储目标视频片段和标签信息,从而提高了对视频片段添加标签信息的准确性,丰富了对视频片段添加标签信息的手段。
进一步参考图4,其示出了用于处理视频的方法的又一个实施例的流程400。该用于处理视频的方法的流程400,包括以下步骤:
步骤401,获取目标视频和目标视频的目标视频元素信息。
在本实施例中,用于处理视频的方法的执行主体(例如图1所示的服务器)可以通过有线连接方式或者无线连接方式从远程或者从本地获取目标视频和目标视频的目标视频元素信息。其中,目标视频可以是预先设置的某个视频集合中的视频。视频元素信息可以是目标视频对应的各种信息(例如字幕、配音、图像帧、名称、播放时间等信息),目标视频元素信息可以包括上述各种信息中的至少一种。
在本实施例中,目标视频元素信息为目标视频包括的图像帧。
步骤402,对于目标视频包括的图像帧,对该图像帧进行图像识别,得到该图像帧的图像识别结果。
在本实施例中,对于目标视频包括的图像帧,上述执行主体可以对该图像帧进行图像识别,得到该图像帧的图像识别结果。其中,图像识别结果可以是图像帧包括的物体、场景等图像的相关信息(例如物体的数量、场景的类别等信息)。需要说明的是,上述图像识别结果可以是基于现有的图像识别方法(例如基于神经网络的方法、基于分形特征的方法等)得到的,图像识别方法是目前广泛研究和应用的公知技术,在此不再赘述。
步骤403,将图像识别结果相关联的、且在目标视频中连续排列的图像帧所在的视频片段确定为目标视频片段。
在本实施例中,基于步骤402中得到的图像识别结果,上述执行主体可以将图像识别结果相关联的、且在目标视频中连续排列的图像帧所在的视频片段确定为目标视频片段。其中,确定图像识别结果之间是否关联的方法可以是基于技术人员预先设置的条件来判断。
作为示例,图像识别结果可以是图像帧包括的物体的类别和图像帧包括的人物的数量,假设技术人员预先设置的条件为:图像帧中包括武器图像和至少两个人物图像。则上述执行主体可以将表征包括武器图像和至少两个人物图像的图像识别结果确定为关联的图像识别结果。然后,上述执行主体可以将关联的图像识别结果对应的、且在目标视频中连续排列的图像帧所在的视频片段确定为目标视频片段。
作为另一示例,图像识别结果可以是图像帧包括的目标物体的位置信息。假设目标物体为足球,上述执行主体可以从图像帧中识别出足球,并且识别出足球在球场中的位置(例如基于图像帧中的球场边线的图像确定足球的位置),技术人员预先设置的条件为:图像帧对应的图像识别结果表征图像帧包括足球图像且足球的位置位于球门内。则上述执行主体可以将符合该条件的图像识别结果确定为目标图像识别结果,再确定目标图像识别结果对应的图像帧在目标视频中所处的时间段,然后确定该时间段之前和之后的预设时间段内的图像帧的图像识别结果,将目标图像识别结果和所确定的图像识别结果确定为关联的图像识别结果。最后,将关联的图像识别结果对应的图像帧所在的视频片段确定为目标视频片段。
通过识别目标视频包括的图像帧来提取目标视频片段,可以使提取目标视频片段的过程更加快捷和准确,并且有利于提高目标视频片段的针对性。
步骤404,基于预设的、图像识别结果与关键词的对应关系,确定目标视频片段包括的图像帧的图像识别结果对应的关键词作为目标视频片段的关键词。
在本实施例中,上述执行主体可以基于预设的、图像识别结果与关键词的对应关系,确定目标视频片段包括的图像帧的图像识别结果对应的关键词作为目标视频片段的关键词。作为示例,图像识别结果与关键词的对应关系可以通过预设的对应关系表或预设的数据结构(例如链表)来表征。图像识别结果可以是图像帧包括的物品图像的名称,图像识别结果对应的关键词可以是表征物品图像的名称所属的类别的类别关键词。例如,目标视频片段中,有的图像帧中包括***图像,有的图像帧中包括大炮图像,则基于上述对应关系表,可以确定包括***图像的图像帧和包括大炮图像的图像帧的关键词包括“武器”。并且,目标视频片段中的每个图像帧均包括至少两个人物图像,则可以确定每个图像帧的关键词包括“多人”。最终确定的目标视频片段的关键词可以包括“武器”和“多人”。
步骤405,将关键词与预设的标签信息集合进行匹配,得到目标视频片段的标签信息,以及关联存储目标视频片段和标签信息。
在本实施例中,步骤405与图2对应实施例中的步骤204基本一致,这里不再赘述。
从图4中可以看出,与图2对应的实施例相比,本实施例中的用于处理视频的方法的流程400突出了对目标视频包括的图像帧进行识别,进而得到目标视频片段的关键词的步骤,从而提高了确定目标视频片段的标签信息的效率和准确性。
进一步参考图5,其示出了用于处理视频的方法的又一个实施例的流程500。该用于处理视频的方法的流程500,包括以下步骤:
步骤501,获取目标视频和目标视频的目标视频元素信息。
在本实施例中,用于处理视频的方法的执行主体(例如图1所示的服务器)可以通过有线连接方式或者无线连接方式从远程或者从本地获取目标视频和目标视频的目标视频元素信息。其中,目标视频可以是预先设置的某个视频集合中的视频。视频元素信息可以是目标视频对应的各种信息(例如字幕、配音、图像帧、名称、播放时间等信息),目标视频元素信息可以包括上述各种信息中的至少一种。
在本实施例中,目标视频元素信息为目标视频包括的图像帧对应的文字信息的集合。具体地,文字信息的集合中的每条文字信息可以对应目标视频包括的至少一个图像帧。作为示例,文字信息可以是字幕信息(字幕信息可以是从预设的字幕文件中提取的信息,也可以是对图像帧进行文字识别得到的文字信息)、对图像图像帧中包括的文字图像进行识别得到的文字信息等。
步骤502,对于目标视频包括的图像帧,提取该图像帧对应的文字信息包括的目标词汇。
在本实施例中,对于目标视频包括的图像帧,上述执行主体可以提取该图像帧对应的文字信息包括的目标词汇。作为示例,假设文字信息为视频帧包括的字幕,则目标词汇可以为从字幕中提取出的至少一个词汇中的、属于预设类别的词汇。例如,预设类别可以是情感类,目标词汇可以是“讨厌”“喜欢”“高兴”等表征情感的词汇。
需要说明的是,上述目标词汇可以是基于现有的文字识别方法(例如基于神经网络的文字提取模型、基于词汇类别和词汇的对应关系表等)得到的,文字识别方法是目前广泛研究和应用的公知技术,在此不再赘述。
步骤503,将对应的目标词汇相关联的图像帧所在的视频片段确定为目标视频片段。
在本实施例中,基于步骤502得到的目标词汇,上述执行主体可以将对应的目标词汇相关联的图像帧所在的视频片段确定为目标视频片段。其中,确定目标词汇之间是否关联的方法可以是基于技术人员预先设置的条件来判断。
作为示例,假设技术人员预先设置的条件为:图像帧对应的目标词汇属于战争类的词汇。则上述执行主体可以将符合该条件的词汇对应的各个图像帧确定为关联的图像帧;或者,将符合该条件的词汇对应的各个图像帧以及在目标视频中的时间处于上述各个图像帧之间的图像帧确定为关联的图像帧。再将关联的图像帧所处的视频片段确定为目标视频片段。
通过提取文字信息包括的目标词汇来提取目标视频片段,可以进一步增加提取目标视频片段的灵活性,并且有利于提高目标视频片段的针对性。
步骤504,从目标视频片段包括的图像帧对应的目标词汇中,选择目标词汇作为目标视频片段的关键词。
在本实施例中,上述执行主体可以从目标视频片段包括的图像帧对应的目标词汇中,选择目标词汇作为目标视频片段的关键词。作为示例,目标视频片段中的各个图像帧对应的目标词汇是属于战争类的词汇,则上述执行主体可从各个目标词汇中,以各种方式(例如随机选择的方式、按同一目标词汇出现的次数的顺序选择的方式等)提取预设数量个目标词汇作为目标视频片段的关键词。例如,提取出的关键词可以包括“进攻”、“冲”、“开炮”等。
步骤505,将关键词与预设的标签信息集合进行匹配,得到目标视频片段的标签信息,以及关联存储目标视频片段和标签信息。
在本实施例中,步骤505与图2对应实施例中的步骤204基本一致,这里不再赘述。
从图5中可以看出,与图2对应的实施例相比,本实施例中的用于处理视频的方法的流程500突出了对目标视频包括的图像帧对应的文字信息进行识别,进而得到目标视频片段的关键词的步骤,从而有助于提高确定目标视频片段的标签信息的准确性和灵活性。
进一步参考图6,其示出了用于处理视频的方法的又一个实施例的流程600。该用于处理视频的方法的流程600,包括以下步骤:
步骤601,获取目标视频和目标视频的目标视频元素信息。
在本实施例中,用于处理视频的方法的执行主体(例如图1所示的服务器)可以通过有线连接方式或者无线连接方式从远程或者从本地获取目标视频和目标视频的目标视频元素信息。其中,目标视频可以是预先设置的某个视频集合中的视频。视频元素信息可以是目标视频对应的各种信息(例如字幕、配音、图像帧、名称、播放时间等信息),目标视频元素信息可以包括上述各种信息中的至少一种。
在本实施例中,目标视频元素信息包括目标视频包括的图像帧对应的文字信息的集合,以及目标视频的文字简介信息。具体地,文字信息的集合中的每条文字信息可以对应目标视频包括的至少一个图像帧。作为示例,文字信息可以是字幕信息(字幕信息可以是从预设的字幕文件中提取的信息,也可以是对图像帧进行文字识别得到的文字信息)、对图像帧中包括的文字图像进行识别得到的文字信息等。
步骤602,对于目标视频包括的图像帧,确定该图像帧对应的文字信息与文字简介信息的相似度。
在本实施例中,对于目标视频包括的图像帧,上述执行主体可以确定该图像帧对应的文字信息与文字简介信息的相似度。其中,计算文字信息的相似度的方法可以包括但不限于以下至少一种:基于计算杰卡德(Jaccard)相似系数的方法、基于余弦相似度的方法等。上述计算相似度的方法是目前广泛研究和应用的公知技术,在此不再赘述。
步骤603,将与大于预设的相似度阈值的相似度所对应的图像帧相关联的图像帧所在的视频片段确定为目标视频片段。
在本实施例中,基于步骤602得到的相似度,上述执行主体可以将与大于预设的相似度阈值的相似度所对应的图像帧相关联的图像帧所在的视频片段确定为目标视频片段。上述与大于预设的相似度阈值的相似度所对应的图像帧相关联的图像帧可以包括:各个大于预设的相似度阈值的相似度所对应的各个图像帧,以及播放时间位于上述各个图像帧之间的图像帧;或者,上述与大于预设的相似度阈值的相似度所对应的图像帧相关联的图像帧可以包括:各个大于预设的相似度阈值的相似度所对应的各个图像帧,以及播放时间位于上述各个图像帧之间的图像帧,且包括上述各个图像帧之前和之后的预设数量个图像帧。作为示例,目标视频中,处于30秒、35秒、50秒的图像帧对应的相似度大于相似度阈值,则时间段为30秒~50秒之间的视频片段为目标视频片段;或者,预设数量为500,则目标图像帧包括时间段为30秒~50秒之间的图像帧,以及间段为30秒~50秒之间的图像帧之前和之后的500个图像帧。
步骤604,对于目标视频片段包括的图像帧,提取该图像帧对应的文字信息包括的目标词汇。
在本实施例中,提取图像帧对应的文字信息包括的目标词汇的方法可以与上述步骤502相同,在此不再赘述。
步骤605,从目标视频片段包括的图像帧对应的目标词汇中,选择目标词汇作为目标视频片段的关键词。
在本实施例中,从目标视频片段包括的图像帧对应的目标词汇中,选择目标词汇作为目标视频片段的关键词的方法可以与上述步骤504相同,在此不再赘述。
步骤606,将关键词与预设的标签信息集合进行匹配,得到目标视频片段的标签信息,以及关联存储目标视频片段和标签信息。
在本实施例中,步骤606与图2对应实施例中的步骤204基本一致,这里不再赘述。
从图6中可以看出,与图2对应的实施例相比,本实施例中的用于处理视频的方法的流程600突出了计算文字信息与文字简介信息的相似度的步骤,从而有助于提高提取目标视频片段的针对性。
进一步参考图7,其示出了用于处理视频的方法的又一个实施例的流程700。该用于处理视频的方法的流程700,包括以下步骤:
步骤701,获取目标视频和目标视频的目标视频元素信息。
在本实施例中,用于处理视频的方法的执行主体(例如图1所示的服务器)可以通过有线连接方式或者无线连接方式从远程或者从本地获取目标视频和目标视频的目标视频元素信息。其中,目标视频可以是预先设置的某个视频集合中的视频。视频元素信息可以是目标视频对应的各种信息(例如字幕、配音、图像帧、名称、播放时间等信息),目标视频元素信息可以包括上述各种信息中的至少一种。
在本实施例中,目标视频元素信息为目标视频包括的图像帧对应的弹幕信息的集合。具体地,弹幕信息可以是对图像帧进行弹幕文字识别得到的文字信息。例如,上述执行主体可以利用现有的OCR(Optical Character Recognition,光学字符识别)技术,识别图像帧中的弹幕,得到弹幕信息。
步骤702,对于目标视频包括的图像帧,确定该图像帧对应的弹幕信息的数量。
在本实施例中,对于目标视频包括的图像帧,上述执行主体可以确定该图像帧对应的弹幕信息的数量。
步骤703,将对应的弹幕信息的数量大于预设的数量阈值、且在目标视频中连续排列的图像帧所在的视频片段确定为目标视频片段。
在本实施例中,上述执行主体可以将对应的弹幕信息的数量大于预设的数量阈值、且在目标视频中连续排列的图像帧所在的视频片段确定为目标视频片段。其中,上述数量阈值可以是按照各种方式设置的数量,例如,可以是技术人员基于经验设置的数量,也可以是上述执行主体计算出的目标视频的弹幕信息的总数量除以目标视频包括的图像帧的数量所得的结果。实践中,对应的弹幕信息的数量大于数量阈值的图像帧可以认为是大多数用户比较关注的图像帧。则可以认为目标视频片段是关注程度较高的视频片段。
步骤704,对于目标视频片段包括的图像帧,对该图像帧对应的弹幕信息进行识别,得到表征该图像帧对应的弹幕信息所属类别的弹幕类别信息作为目标视频片段的关键词。
在本实施例中,对于目标视频片段包括的图像帧,上述执行主体可以对该图像帧对应的弹幕信息进行识别,得到表征该图像帧对应的弹幕信息所属类别的弹幕类别信息作为目标视频片段的关键词。具体地,上述执行主体可以利用各种方式得到弹幕类别信息。作为示例,上述执行主体可以利用预设的弹幕分类模型,得到弹幕类别信息。该弹幕分类模型可以是技术人员基于对大量的文字信息和文字信息的类别信息的统计而预先制定的、存储有多个文字信息与类别信息的对应关系的对应关系表;也可以是基于现有的人工神经网络(例如卷积神经网络)进行有监督地训练而得到的用于对文字进行分类的模型。
步骤705,将关键词与预设的标签信息集合进行匹配,得到目标视频片段的标签信息,以及关联存储目标视频片段和标签信息。
在本实施例中,上述执行主体可以首先将关键词与预设的标签信息集合进行匹配,得到目标视频片段的标签信息。然后,关联存储目标视频片段和标签信息。作为示例,标签信息集合可以包括至少一个子集合,每个子集合可以是一系列相关的标签信息的集合。例如,某个子集合包括如下标签信息:“战争”、“战斗”、“武器”等,当目标视频片段的关键词包含于该子集合包括的标签信息时,可以将该子集合中的至少一个标签信息(例如“战争”)确定为目标视频片段的标签信息。
作为另一示例,标签信息集合可以包括第一子集合和第二子集合,其中,第一子集合包括正面评价的标签信息,第二子集合包括负面评价的标签信息。上述执行主体可以确定弹幕类别信息是否属于第一子集合或第二子集合。如果弹幕信息属于第一子集合,则目标视频片段的标签信息设置为第一信息(例如“正面评价”);如果弹幕信息属于第二子集合,则目标视频片段的标签信息设置为第二信息(例如“负面评价”)。
从图7中可以看出,与图2对应的实施例相比,本实施例中的用于处理视频的方法的流程700突出了基于识别弹幕信息的数量提取目标视频片段,以及基于弹幕类别信息确定目标视频片段的标签信息的步骤,从而有助于提高提取目标视频片段的针对性,以及提高确定视频片段的标签信息的准确性。
进一步参考图8,其示出了用于处理视频的方法的又一个实施例的流程800。该用于处理视频的方法的流程800,包括以下步骤:
步骤801,获取目标视频和目标视频的目标视频元素信息。
在本实施例中,用于处理视频的方法的执行主体(例如图1所示的服务器)可以通过有线连接方式或者无线连接方式从远程或者从本地获取目标视频和目标视频的目标视频元素信息。其中,目标视频可以是预先设置的某个视频集合中的视频。视频元素信息可以是目标视频对应的各种信息(例如字幕、配音、图像帧、名称、播放时间等信息),目标视频元素信息可以包括上述各种信息中的至少一种。
在本实施例中,目标视频元素信息为目标视频的配音信息。
步骤802,对配音信息进行音频识别,得到至少一条配音类别信息和配音类别信息对应的、配音信息包括的配音片段。
在本实施例中,上述执行主体可以对配音信息进行音频识别,得到至少一条配音类别信息和配音类别信息对应的、配音信息包括的配音片段。其中,配音类别信息用于表征对应的配音片段所属的类别。上述执行主体可以利用现有的音频识别技术,从配音信息中提取至少一条配音片段。例如,上述执行主体可以从配音信息中提取类别为音乐的配音片段,该配音片段的类别信息可以是“音乐”,还可以提取类别为语音的配音片段,该配音片段的类别信息可以是“语音”。
步骤803,从至少一条配音类别信息中选择目标配音类别信息,以及将目标配音类别信息对应的配音片段所对应的视频片段确定为目标视频片段。
在本实施例中,上述执行主体可以首先按照各种方式从至少一条配音类别信息中选择(例如随机选择,或按提取出配音片段的顺序选择)目标配音类别信息。然后将目标配音类别信息对应的配音片段所对应的视频片段确定为目标视频片段。
作为示例,假设目标配音类别信息为“音乐”,且类别信息为“音乐”的配音片段包括配音片段A和配音片段B,则配音片段A和配音片段B可以分别确定为目标视频片段。
步骤804,基于预设的、配音类别信息与音频识别方式的对应关系,对目标视频片段对应的配音片段进行识别,得到表征目标视频片段对应的配音片段所属类别的关键词作为目标视频片段的关键词。
在本实施例中,上述执行主体可以基于预设的、配音类别信息与音频识别方式的对应关系,对目标视频片段对应的配音片段进行识别,得到表征目标视频片段对应的配音片段所属类别的关键词作为目标视频片段的关键词。其中,上述配音类别信息与音频识别方式的对应关系可以由预设的程序列表表征,该程序列表中的程序可以对应于配音类别信息,上述执行主体可以自动地或者按照技术人员的操作运行对应的程序。上述关键词可以是音乐的名称、从对语音进行识别所得到的文字中提取的目标词汇等。上述音频识别的方法是目前广泛研究和应用的公知技术,在此不再赘述。
作为示例,假设目标视频片段对应的配音片段为一段音乐,则表征该配音片段所属类别的关键词可以是该段音乐的名称。作为另一示例,假设目标视频片段对应的配音片段为语音,上述执行主体可以首先对该配音片段进行语音识别,得到文字信息,再从文字信息中提取目标词汇作为表征该配音片段所属类别的关键词。其中,从文字信息中提取目标词汇的方法可以与上述步骤502描述的方法相同,在此不再赘述。
步骤805,将关键词与预设的标签信息集合进行匹配,得到目标视频片段的标签信息,以及关联存储目标视频片段和标签信息。
在本实施例中,步骤805与图2对应实施例中的步骤204基本一致,这里不再赘述。
从图8中可以看出,与图2对应的实施例相比,本实施例中的用于处理视频的方法的流程800突出了对配音信息进行识别以得到目标视频片段,以及对目标视频片段对应的配音片段进行识别,得到目标视频片段的关键词的步骤,从而有助于提高提取目标视频片段的针对性,以及提高确定视频片段的标签信息的准确性。
进一步参考图9,其示出了根据本申请的用于生成推荐信息的方法的一个实施例的流程900。该用于输出信息的方法,包括以下步骤:
步骤901,获取表征目标用户关注的内容的关注信息,将关注信息与预设的标签信息进行匹配。
在本实施例中,用于生成推荐信息的方法的执行主体(例如图1所示的服务器)可以首先通过有线连接方式或者无线连接方式从远程或者从本地获取表征目标用户关注的内容的关注信息。其中,目标用户可以是预先设置的某个用户列表或某个用户集合中的用户(例如某网站的注册用户),也可以是满足某些条件(例如浏览过某些视频)的用户。在本实施例中,标签信息可以是根据上述图2~图8任一实施例所描述的方法得到的,且标签信息具有对应的视频片段。上述关注信息可以是与目标用户关联的信息,例如,目标用户的关注信息可以包含在目标用户的用户画像信息中,或者,目标用户的关注信息可以包含在目标用户的历史浏览记录中。
然后,执行主体将关注信息与预设的标签信息进行匹配。具体地,上述预设的标签信息与目标用户的关注信息完全相同或部分相同时,可以确定关注信息与标签信息匹配成功。例如,预设的标签信息包括“战争”、“屠杀”,目标用户的关注信息包括“战争”、“武器”,则确定关注信息与标签信息匹配成功。
步骤902,响应于确定匹配成功,生成用于推荐视频片段的推荐信息。
在本实施例中,上述执行主体可以响应于确定匹配成功,生成用于推荐上述标签信息对应的视频片段的推荐信息。作为示例,推荐信息可以包括标签信息和标签信息对应的视频片段的链接,还可以包括上述视频片段的视频的链接等信息。
可选地,上述执行主体可以将生成的推荐信息发送至上述目标用户使用的终端设备。
本申请的上述实施例提供的方法,通过将目标用户的关注信息与预设的标签信息进行匹配,以生成推荐视频片段的推荐信息。通过使用如上述图2~图8任一实施例描述的方法得到的标签信息,提高了生成推荐信息的针对性。
进一步参考图10,作为对上述各图所示方法的实现,本申请提供了一种用于处理视频的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图10所示,本实施例的用于处理视频的装置1000包括:获取单元1001,被配置成获取目标视频和目标视频的目标视频元素信息;提取单元1002,被配置成基于目标视频元素信息,从目标视频中提取目标视频片段;确定单元1003,被配置成基于预设的、视频元素信息与视频片段的关键词确定方式的对应关系,得到表征目标视频片段的类别的关键词;存储单元1004,被配置成将关键词与预设的标签信息集合进行匹配,得到目标视频片段的标签信息,以及关联存储目标视频片段和标签信息。
在本实施例中,上述获取单元1001可以通过有线连接方式或者无线连接方式从远程或者从本地获取目标视频和目标视频的目标视频元素信息。其中,目标视频可以是预先设置的某个视频集合(例如某视频网站提供的视频)中的视频。视频元素信息可以是目标视频对应的各种信息(例如字幕、配音、图像帧、名称、播放时间等信息),目标视频元素信息可以包括上述各种信息中的至少一种。
在本实施例中,基于获取单元1001中得到的目标视频元素信息,上述提取单元1002可以从目标视频中提取目标视频片段。具体地,上述获取单元1001可以按照各种方式从目标视频中提取目标视频片段。例如,当目标视频元素信息是目标视频包括的图像帧时,上述提取单元1002可以对每个图像帧进行识别,得到每个图像帧包括的物体图像的类别,将相同类别的图像(例如包括武器图像的图像帧)帧对应的视频片段确定为目标视频片段。
在本实施例中,确定单元1003可以基于预设的、视频元素信息与视频片段的关键词确定方式的对应关系,得到表征目标视频片段的类别的关键词。其中,上述视频元素信息与关键词确定方式的对应关系可以由预设的程序列表表征,该程序列表中的程序可以对应于至少一个视频元素信息。
在本实施例中,存储单元1004在可以将关键词与预设的标签信息集合进行匹配,得到目标视频片段的标签信息,以及关联存储目标视频片段和标签信息。其中,标签信息集合可以包括至少一个子集合,每个子集合可以是一系列相关的标签信息的集合。例如,某个子集合包括如下标签信息:“战争”、“战斗”、“武器”等,当目标视频片段的关键词包含于该子集合包括的标签信息时,可以将该子集合中的至少一个标签信息(例如“战争”)确定为目标视频片段的标签信息。
在本实施例的一些可选的实现方式中,目标视频元素信息为目标视频包括的图像帧;以及提取单元包括:第一识别模块(图中未示出),被配置成对于目标视频包括的图像帧,对该图像帧进行图像识别,得到该图像帧的图像识别结果;第一确定模块(图中未示出),被配置成将图像识别结果相关联的、且在目标视频中连续排列的图像帧所在的视频片段确定为目标视频片段。
在本实施例的一些可选的实现方式中,确定单元进一步被配置成基于预设的、图像识别结果与关键词的对应关系,确定目标视频片段包括的图像帧的图像识别结果对应的关键词作为目标视频片段的关键词。
在本实施例的一些可选的实现方式中,目标视频元素信息为目标视频包括的图像帧对应的文字信息的集合;以及提取单元包括:第一提取模块(图中未示出),被配置成对于目标视频包括的图像帧,提取该图像帧对应的文字信息包括的目标词汇;第二确定模块(图中未示出),被配置成将对应的目标词汇相关联的图像帧所在的视频片段确定为目标视频片段。
在本实施例的一些可选的实现方式中,确定单元进一步被配置成从目标视频片段包括的图像帧对应的目标词汇中,选择目标词汇作为目标视频片段的关键词。
在本实施例的一些可选的实现方式中,目标视频元素信息包括目标视频包括的图像帧对应的文字信息的集合,以及目标视频的文字简介信息;以及提取单元包括:第三确定模块(图中未示出),被配置成对于目标视频包括的图像帧,确定该图像帧对应的文字信息与文字简介信息的相似度;第四确定模块(图中未示出),被配置成将与大于预设的相似度阈值的相似度所对应的图像帧相关联的图像帧所在的视频片段确定为目标视频片段。
在本实施例的一些可选的实现方式中,确定单元包括:第二提取模块(图中未示出),被配置成对于目标视频片段包括的图像帧,提取该图像帧对应的文字信息包括的目标词汇;第一选择模块(图中未示出),被配置成从目标视频片段包括的图像帧对应的目标词汇中,选择目标词汇作为目标视频片段的关键词。
在本实施例的一些可选的实现方式中,目标视频元素信息为目标视频包括的图像帧对应的弹幕信息的集合;以及提取单元包括:第五确定模块(图中未示出),被配置成对于目标视频包括的图像帧,确定该图像帧对应的弹幕信息的数量;第六确定模块(图中未示出),被配置成将对应的弹幕信息的数量大于预设的数量阈值、且在目标视频中连续排列的图像帧所在的视频片段确定为目标视频片段。
在本实施例的一些可选的实现方式中,确定单元进一步被配置成对于目标视频片段包括的图像帧,对该图像帧对应的弹幕信息进行识别,得到表征该图像帧对应的弹幕信息所属类别的弹幕类别信息作为目标视频片段的关键词。
在本实施例的一些可选的实现方式中,目标视频元素信息为目标视频的配音信息;以及提取单元包括:第二识别模块(图中未示出),被配置成对配音信息进行音频识别,得到至少一条配音类别信息和配音类别信息对应的、配音信息包括的配音片段,其中,配音类别信息用于表征对应的配音片段所属的类别;第二选择模块(图中未示出),被配置成从至少一条配音类别信息中选择目标配音类别信息,以及将目标配音类别信息对应的配音片段所对应的视频片段确定为目标视频片段。
在本实施例的一些可选的实现方式中,确定单元进一步被配置成基于预设的、配音类别信息与音频识别方式的对应关系,对目标视频片段对应的配音片段进行识别,得到表征目标视频片段对应的配音片段所属类别的关键词作为目标视频片段的关键词。
本申请的上述实施例提供的装置,通过利用目标视频的目标视频元素信息,从目标视频中提取出目标视频片段,再基于预设的关键词确定方式,得到目标视频片段的关键词,最后将关键词与预设的标签信息集合进行匹配,得到目标视频片段的标签信息,以及关联存储目标视频片段和标签信息,从而提高了对视频片段添加标签信息的准确性,丰富了对视频片段添加标签信息的手段。
进一步参考图11,作为对上述各图所示方法的实现,本申请提供了一种用于处理视频的装置的一个实施例,该装置实施例与图9所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图11所示,本实施例的用于处理视频的装置1100包括:获取单元1101,被配置成获取表征目标用户关注的内容的关注信息,将关注信息与预设的标签信息进行匹配,其中,标签信息是根据上述图2~图8任一实施例描述的方法得到的,且标签信息具有对应的视频片段;生成单元1102,被配置成响应于确定匹配成功,生成用于推荐视频片段的推荐信息。
本申请的上述实施例提供的装置,通过将目标用户的关注信息与预设的标签信息进行匹配,以生成推荐视频片段的推荐信息。通过使用如上述图2~图8任一实施例描述的方法得到的标签信息,提高了生成推荐信息的针对性
下面参考图12,其示出了适于用来实现本申请实施例的服务器的计算机***1200的结构示意图。图12示出的服务器仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图12所示,计算机***1200包括中央处理单元(CPU)1201,其可以根据存储在只读存储器(ROM)1202中的程序或者从存储部分1208加载到随机访问存储器(RAM)1203中的程序而执行各种适当的动作和处理。在RAM 1203中,还存储有***1200操作所需的各种程序和数据。CPU 1201、ROM 1202以及RAM 1203通过总线1204彼此相连。输入/输出(I/O)接口1205也连接至总线1204。
以下部件连接至I/O接口1205:包括键盘、鼠标等的输入部分1206;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分1207;包括硬盘等的存储部分1208;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分1209。通信部分1209经由诸如因特网的网络执行通信处理。驱动器1210也根据需要连接至I/O接口1205。可拆卸介质1211,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器1210上,以便于从其上读出的计算机程序根据需要被安装入存储部分1208。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分1209从网络上被下载和安装,和/或从可拆卸介质1211被安装。在该计算机程序被中央处理单元(CPU)1201执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读介质或者是上述两者的任意组合。计算机可读介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、提取单元、确定单元和存储单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取目标视频和所述目标视频的目标视频元素信息的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的服务器中所包含的;也可以是单独存在,而未装配入该服务器中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该服务器执行时,使得该服务器:获取目标视频和目标视频的目标视频元素信息;基于目标视频元素信息,从目标视频中提取目标视频片段;基于预设的、视频元素信息与视频片段的关键词确定方式的对应关系,得到表征目标视频片段的类别的关键词;将关键词与预设的标签信息集合进行匹配,得到目标视频片段的标签信息,以及关联存储目标视频片段和标签信息。
此外,当上述一个或者多个程序被该服务器执行时,还可以使得该服务器:获取表征目标用户关注的内容的关注信息,将关注信息与预设的标签信息进行匹配,其中,标签信息是根据上述图2~图8任一实施例描述的方法得到的,且标签信息具有对应的视频片段;响应于确定匹配成功,生成用于推荐视频片段的推荐信息。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (26)

1.一种用于处理视频的方法,包括:
获取目标视频和所述目标视频的目标视频元素信息;
基于所述目标视频元素信息,从所述目标视频中提取目标视频片段;
基于预设的、视频元素信息与视频片段的关键词确定方式的对应关系,得到表征所述目标视频片段的类别的关键词;
将所述关键词与预设的标签信息集合进行匹配,得到所述目标视频片段的标签信息,以及关联存储所述目标视频片段和所述标签信息。
2.根据权利要求1所述的方法,其中,所述目标视频元素信息为所述目标视频包括的图像帧;以及
所述基于所述目标视频元素信息,从所述目标视频中提取目标视频片段,包括:
对于所述目标视频包括的图像帧,对该图像帧进行图像识别,得到该图像帧的图像识别结果;
将图像识别结果相关联的、且在所述目标视频中连续排列的图像帧所在的视频片段确定为目标视频片段。
3.根据权利要求2所述的方法,其中,所述基于预设的、视频元素信息与视频片段的关键词确定方式的对应关系,得到表征所述目标视频片段的类别的关键词,包括:
基于预设的、图像识别结果与关键词的对应关系,确定所述目标视频片段包括的图像帧的图像识别结果对应的关键词作为所述目标视频片段的关键词。
4.根据权利要求1所述的方法,其中,所述目标视频元素信息为所述目标视频包括的图像帧对应的文字信息的集合;以及
所述基于所述目标视频元素信息,从所述目标视频中提取目标视频片段,包括:
对于所述目标视频包括的图像帧,提取该图像帧对应的文字信息包括的目标词汇;
将对应的目标词汇相关联的图像帧所在的视频片段确定为目标视频片段。
5.根据权利要求4所述的方法,其中,所述基于预设的、视频元素信息与视频片段的关键词确定方式的对应关系,得到表征所述目标视频片段的类别的关键词,包括:
从所述目标视频片段包括的图像帧对应的目标词汇中,选择目标词汇作为所述目标视频片段的关键词。
6.根据权利要求1所述的方法,其中,所述目标视频元素信息包括所述目标视频包括的图像帧对应的文字信息的集合,以及所述目标视频的文字简介信息;以及
所述基于所述目标视频元素信息,从所述目标视频中提取目标视频片段,包括:
对于所述目标视频包括的图像帧,确定该图像帧对应的文字信息与所述文字简介信息的相似度;
将与大于预设的相似度阈值的相似度所对应的图像帧相关联的图像帧所在的视频片段确定为目标视频片段。
7.根据权利要求6所述的方法,其中,所述基于预设的、视频元素信息与视频片段的关键词确定方式的对应关系,得到表征所述目标视频片段的类别的关键词,包括:
对于所述目标视频片段包括的图像帧,提取该图像帧对应的文字信息包括的目标词汇;
从所述目标视频片段包括的图像帧对应的目标词汇中,选择目标词汇作为所述目标视频片段的关键词。
8.根据权利要求1所述的方法,其中,所述目标视频元素信息为所述目标视频包括的图像帧对应的弹幕信息的集合;以及
所述基于所述目标视频元素信息,从所述目标视频中提取目标视频片段,包括:
对于所述目标视频包括的图像帧,确定该图像帧对应的弹幕信息的数量;
将对应的弹幕信息的数量大于预设的数量阈值、且在目标视频中连续排列的图像帧所在的视频片段确定为目标视频片段。
9.根据权利要求8所述的方法,其中,所述基于预设的、视频元素信息与视频片段的关键词确定方式的对应关系,得到表征所述目标视频片段的类别的关键词,包括:
对于所述目标视频片段包括的图像帧,对该图像帧对应的弹幕信息进行识别,得到表征该图像帧对应的弹幕信息所属类别的弹幕类别信息作为所述目标视频片段的关键词。
10.根据权利要求1所述的方法,其中,所述目标视频元素信息为所述目标视频的配音信息;以及
所述基于所述目标视频元素信息,从所述目标视频中提取目标视频片段,包括:
对所述配音信息进行音频识别,得到至少一条配音类别信息和配音类别信息对应的、所述配音信息包括的配音片段,其中,配音类别信息用于表征对应的配音片段所属的类别;
从所述至少一条配音类别信息中选择目标配音类别信息,以及将所述目标配音类别信息对应的配音片段所对应的视频片段确定为目标视频片段。
11.根据权利要求10所述的方法,其中,所述基于预设的、视频元素信息与视频片段的关键词确定方式的对应关系,得到表征所述目标视频片段的类别的关键词,包括:
基于预设的、配音类别信息与音频识别方式的对应关系,对所述目标视频片段对应的配音片段进行识别,得到表征所述目标视频片段对应的配音片段所属类别的关键词作为所述目标视频片段的关键词。
12.一种用于生成推荐信息的方法,包括:
获取表征目标用户关注的内容的关注信息,将所述关注信息与预设的标签信息进行匹配,其中,所述标签信息是根据权利要求1-11任一项所述的方法得到的,且所述标签信息具有对应的视频片段;
响应于确定匹配成功,生成用于推荐所述视频片段的推荐信息。
13.一种用于处理视频的装置,包括:
获取单元,被配置成获取目标视频和所述目标视频的目标视频元素信息;
提取单元,被配置成基于所述目标视频元素信息,从所述目标视频中提取目标视频片段;
确定单元,被配置成基于预设的、视频元素信息与视频片段的关键词确定方式的对应关系,得到表征所述目标视频片段的类别的关键词;
存储单元,被配置成将所述关键词与预设的标签信息集合进行匹配,得到所述目标视频片段的标签信息,以及关联存储所述目标视频片段和所述标签信息。
14.根据权利要求13所述的装置,其中,所述目标视频元素信息为所述目标视频包括的图像帧;以及
所述提取单元包括:
第一识别模块,被配置成对于所述目标视频包括的图像帧,对该图像帧进行图像识别,得到该图像帧的图像识别结果;
第一确定模块,被配置成将图像识别结果相关联的、且在所述目标视频中连续排列的图像帧所在的视频片段确定为目标视频片段。
15.根据权利要求14所述的装置,其中,所述确定单元进一步被配置成基于预设的、图像识别结果与关键词的对应关系,确定所述目标视频片段包括的图像帧的图像识别结果对应的关键词作为所述目标视频片段的关键词。
16.根据权利要求13所述的装置,其中,所述目标视频元素信息为所述目标视频包括的图像帧对应的文字信息的集合;以及
所述提取单元包括:
第一提取模块,被配置成对于所述目标视频包括的图像帧,提取该图像帧对应的文字信息包括的目标词汇;
第二确定模块,被配置成将对应的目标词汇相关联的图像帧所在的视频片段确定为目标视频片段。
17.根据权利要求16所述的装置,其中,所述确定单元进一步被配置成从所述目标视频片段包括的图像帧对应的目标词汇中,选择目标词汇作为所述目标视频片段的关键词。
18.根据权利要求13所述的装置,其中,所述目标视频元素信息包括所述目标视频包括的图像帧对应的文字信息的集合,以及所述目标视频的文字简介信息;以及
所述提取单元包括:
第三确定模块,被配置成对于所述目标视频包括的图像帧,确定该图像帧对应的文字信息与所述文字简介信息的相似度;
第四确定模块,被配置成将与大于预设的相似度阈值的相似度所对应的图像帧相关联的图像帧所在的视频片段确定为目标视频片段。
19.根据权利要求18所述的装置,其中,所述确定单元包括:
第二提取模块,被配置成对于所述目标视频片段包括的图像帧,提取该图像帧对应的文字信息包括的目标词汇;
第一选择模块,被配置成从所述目标视频片段包括的图像帧对应的目标词汇中,选择目标词汇作为所述目标视频片段的关键词。
20.根据权利要求13所述的装置,其中,所述目标视频元素信息为所述目标视频包括的图像帧对应的弹幕信息的集合;以及
所述提取单元包括:
第五确定模块,被配置成对于所述目标视频包括的图像帧,确定该图像帧对应的弹幕信息的数量;
第六确定模块,被配置成将对应的弹幕信息的数量大于预设的数量阈值、且在目标视频中连续排列的图像帧所在的视频片段确定为目标视频片段。
21.根据权利要求20所述的装置,其中,所述确定单元进一步被配置成对于所述目标视频片段包括的图像帧,对该图像帧对应的弹幕信息进行识别,得到表征该图像帧对应的弹幕信息所属类别的弹幕类别信息作为所述目标视频片段的关键词。
22.根据权利要求13所述的装置,其中,所述目标视频元素信息为所述目标视频的配音信息;以及
所述提取单元包括:
第二识别模块,被配置成对所述配音信息进行音频识别,得到至少一条配音类别信息和配音类别信息对应的、所述配音信息包括的配音片段,其中,配音类别信息用于表征对应的配音片段所属的类别;
第二选择模块,被配置成从所述至少一条配音类别信息中选择目标配音类别信息,以及将所述目标配音类别信息对应的配音片段所对应的视频片段确定为目标视频片段。
23.根据权利要求22所述的装置,其中,所述确定单元进一步被配置成基于预设的、配音类别信息与音频识别方式的对应关系,对所述目标视频片段对应的配音片段进行识别,得到表征所述目标视频片段对应的配音片段所属类别的关键词作为所述目标视频片段的关键词。
24.一种用于生成推荐信息的装置,包括:
获取单元,被配置成获取表征目标用户关注的内容的关注信息,将所述关注信息与预设的标签信息进行匹配,其中,所述标签信息是根据权利要求1-11任一项所述的方法得到的,且所述标签信息具有对应的视频片段;
生成单元,被配置成响应于确定匹配成功,生成用于推荐所述视频片段的推荐信息。
25.一种服务器,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-12中任一所述的方法。
26.一种计算机可读介质,其上存储有计算机程序,其中,该程序被处理器执行时实现如权利要求1-12中任一所述的方法。
CN201810585416.2A 2018-06-08 2018-06-08 用于处理视频的方法和装置 Active CN110582025B (zh)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN201810585416.2A CN110582025B (zh) 2018-06-08 2018-06-08 用于处理视频的方法和装置
US16/352,526 US10824874B2 (en) 2018-06-08 2019-03-13 Method and apparatus for processing video
KR1020190029042A KR20190139751A (ko) 2018-06-08 2019-03-14 비디오를 처리하기 위한 방법 및 장치
EP19162866.8A EP3579140A1 (en) 2018-06-08 2019-03-14 Method and apparatus for processing video
JP2019052669A JP6986527B2 (ja) 2018-06-08 2019-03-20 ビデオを処理する方法及び装置
KR1020210053261A KR102394756B1 (ko) 2018-06-08 2021-04-23 비디오를 처리하기 위한 방법 및 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810585416.2A CN110582025B (zh) 2018-06-08 2018-06-08 用于处理视频的方法和装置

Publications (2)

Publication Number Publication Date
CN110582025A true CN110582025A (zh) 2019-12-17
CN110582025B CN110582025B (zh) 2022-04-01

Family

ID=65812227

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810585416.2A Active CN110582025B (zh) 2018-06-08 2018-06-08 用于处理视频的方法和装置

Country Status (5)

Country Link
US (1) US10824874B2 (zh)
EP (1) EP3579140A1 (zh)
JP (1) JP6986527B2 (zh)
KR (2) KR20190139751A (zh)
CN (1) CN110582025B (zh)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111126388A (zh) * 2019-12-20 2020-05-08 维沃移动通信有限公司 图像识别的方法及电子设备
CN111522970A (zh) * 2020-04-10 2020-08-11 广东小天才科技有限公司 习题推荐方法、装置、设备及存储介质
CN111711869A (zh) * 2020-06-24 2020-09-25 腾讯科技(深圳)有限公司 一种标签数据处理方法、装置以及计算机可读存储介质
CN111767796A (zh) * 2020-05-29 2020-10-13 北京奇艺世纪科技有限公司 一种视频关联方法、装置、服务器和可读存储介质
CN112541094A (zh) * 2020-12-21 2021-03-23 深圳市前海手绘科技文化有限公司 一种动画视频平台视频素材记录方法与装置
CN113343827A (zh) * 2021-05-31 2021-09-03 北京达佳互联信息技术有限公司 视频处理方法、装置、电子设备及计算机可读存储介质
CN113347491A (zh) * 2021-05-24 2021-09-03 北京格灵深瞳信息技术股份有限公司 一种视频剪辑方法、装置、电子设备和计算机存储介质
CN114205653A (zh) * 2021-12-06 2022-03-18 广东飞翔云计算有限公司 一种基于大数据的预览视频推送方法、装置、设备及存储介质
WO2022134701A1 (zh) * 2020-12-22 2022-06-30 上海幻电信息科技有限公司 视频处理方法及装置
CN114697702A (zh) * 2022-03-23 2022-07-01 咪咕文化科技有限公司 音视频标记方法、装置、设备及存储介质

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110149530B (zh) * 2018-06-15 2021-08-24 腾讯科技(深圳)有限公司 一种视频处理方法和装置
CN111177470B (zh) * 2019-12-30 2024-04-30 深圳Tcl新技术有限公司 视频的处理方法、视频的搜索方法及终端设备
CN111416997B (zh) * 2020-03-31 2022-11-08 百度在线网络技术(北京)有限公司 视频播放方法、装置、电子设备和存储介质
CN111626202B (zh) 2020-05-27 2023-08-29 北京百度网讯科技有限公司 用于识别视频的方法及装置
KR20210118203A (ko) * 2020-06-28 2021-09-29 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. 이모티콘 패키지 생성 방법 및 기기, 전자 기기 및 매체
CN114095738A (zh) * 2020-07-30 2022-02-25 京东方科技集团股份有限公司 视频及直播处理方法、直播***、电子设备、终端、介质
CN111970532B (zh) * 2020-08-27 2022-07-15 网易(杭州)网络有限公司 视频播放方法、装置及设备
CN113841417B (zh) * 2020-09-27 2023-07-28 深圳市大疆创新科技有限公司 影片生成方法、终端设备、拍摄设备及影片生成***
CN113297416A (zh) * 2021-05-21 2021-08-24 北京大米科技有限公司 视频数据存储方法、装置、电子设备和可读存储介质
CN113329261B (zh) * 2021-08-02 2021-12-07 北京达佳互联信息技术有限公司 视频处理方法及装置
CN115460459B (zh) * 2022-09-02 2024-02-27 百度时代网络技术(北京)有限公司 基于ai的视频生成方法、装置和电子设备
CN115205766A (zh) * 2022-09-16 2022-10-18 北京吉道尔科技有限公司 基于区块链的网络安全异常视频大数据检测方法及***

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104469508A (zh) * 2013-09-13 2015-03-25 中国电信股份有限公司 基于弹幕信息内容进行视频定位的方法、服务器和***
CN105100892A (zh) * 2015-07-28 2015-11-25 努比亚技术有限公司 视频播放装置及方法
US20170139933A1 (en) * 2015-11-18 2017-05-18 Le Holdings (Beijing) Co., Ltd. Electronic Device, And Computer-Readable Storage Medium For Quickly Searching Video Segments
CN107027060A (zh) * 2017-04-18 2017-08-08 腾讯科技(深圳)有限公司 视频片段的确定方法和装置
WO2017172175A1 (en) * 2016-04-01 2017-10-05 Yahoo! Inc. Computerized system and method for automatically detecting and rendering highlights from streaming videos
CN108024143A (zh) * 2017-11-03 2018-05-11 国政通科技股份有限公司 一种智能的视频数据处理方法及装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4812546B2 (ja) * 2005-06-30 2011-11-09 株式会社日立製作所 送信装置,受信装置及び通信システム
WO2007043679A1 (ja) 2005-10-14 2007-04-19 Sharp Kabushiki Kaisha 情報処理装置およびプログラム
JP2009260762A (ja) 2008-04-18 2009-11-05 Panasonic Corp ダイジェスト作成装置
US8351768B2 (en) * 2009-07-23 2013-01-08 Microsoft Corporation Media processing comparison system and techniques
JP2011130064A (ja) 2009-12-16 2011-06-30 Sony Corp 情報処理装置および方法、並びにプログラム
US20120158686A1 (en) * 2010-12-17 2012-06-21 Microsoft Corporation Image Tag Refinement
KR101236262B1 (ko) 2011-04-07 2013-02-26 (주) 프람트 모바일 콘텐츠 태그 생성 시스템 및 그 방법
US9643722B1 (en) * 2014-02-28 2017-05-09 Lucas J. Myslinski Drone device security system
US10521671B2 (en) * 2014-02-28 2019-12-31 Second Spectrum, Inc. Methods and systems of spatiotemporal pattern recognition for video content development
US20160014482A1 (en) * 2014-07-14 2016-01-14 The Board Of Trustees Of The Leland Stanford Junior University Systems and Methods for Generating Video Summary Sequences From One or More Video Segments
TW201624320A (zh) 2014-12-30 2016-07-01 富智康(香港)有限公司 影像片段搜尋方法及系統

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104469508A (zh) * 2013-09-13 2015-03-25 中国电信股份有限公司 基于弹幕信息内容进行视频定位的方法、服务器和***
CN105100892A (zh) * 2015-07-28 2015-11-25 努比亚技术有限公司 视频播放装置及方法
US20170139933A1 (en) * 2015-11-18 2017-05-18 Le Holdings (Beijing) Co., Ltd. Electronic Device, And Computer-Readable Storage Medium For Quickly Searching Video Segments
WO2017172175A1 (en) * 2016-04-01 2017-10-05 Yahoo! Inc. Computerized system and method for automatically detecting and rendering highlights from streaming videos
CN107027060A (zh) * 2017-04-18 2017-08-08 腾讯科技(深圳)有限公司 视频片段的确定方法和装置
CN108024143A (zh) * 2017-11-03 2018-05-11 国政通科技股份有限公司 一种智能的视频数据处理方法及装置

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111126388B (zh) * 2019-12-20 2024-03-29 维沃移动通信有限公司 图像识别的方法及电子设备
CN111126388A (zh) * 2019-12-20 2020-05-08 维沃移动通信有限公司 图像识别的方法及电子设备
CN111522970A (zh) * 2020-04-10 2020-08-11 广东小天才科技有限公司 习题推荐方法、装置、设备及存储介质
CN111767796A (zh) * 2020-05-29 2020-10-13 北京奇艺世纪科技有限公司 一种视频关联方法、装置、服务器和可读存储介质
CN111767796B (zh) * 2020-05-29 2023-12-15 北京奇艺世纪科技有限公司 一种视频关联方法、装置、服务器和可读存储介质
CN111711869A (zh) * 2020-06-24 2020-09-25 腾讯科技(深圳)有限公司 一种标签数据处理方法、装置以及计算机可读存储介质
CN112541094A (zh) * 2020-12-21 2021-03-23 深圳市前海手绘科技文化有限公司 一种动画视频平台视频素材记录方法与装置
WO2022134701A1 (zh) * 2020-12-22 2022-06-30 上海幻电信息科技有限公司 视频处理方法及装置
CN113347491A (zh) * 2021-05-24 2021-09-03 北京格灵深瞳信息技术股份有限公司 一种视频剪辑方法、装置、电子设备和计算机存储介质
CN113343827A (zh) * 2021-05-31 2021-09-03 北京达佳互联信息技术有限公司 视频处理方法、装置、电子设备及计算机可读存储介质
CN114205653A (zh) * 2021-12-06 2022-03-18 广东飞翔云计算有限公司 一种基于大数据的预览视频推送方法、装置、设备及存储介质
CN114697702A (zh) * 2022-03-23 2022-07-01 咪咕文化科技有限公司 音视频标记方法、装置、设备及存储介质
CN114697702B (zh) * 2022-03-23 2024-01-30 咪咕文化科技有限公司 音视频标记方法、装置、设备及存储介质

Also Published As

Publication number Publication date
JP6986527B2 (ja) 2021-12-22
US10824874B2 (en) 2020-11-03
CN110582025B (zh) 2022-04-01
EP3579140A1 (en) 2019-12-11
KR102394756B1 (ko) 2022-05-04
US20190377956A1 (en) 2019-12-12
KR20190139751A (ko) 2019-12-18
JP2019212290A (ja) 2019-12-12
KR20210053825A (ko) 2021-05-12

Similar Documents

Publication Publication Date Title
CN110582025B (zh) 用于处理视频的方法和装置
CN107832434B (zh) 基于语音交互生成多媒体播放列表的方法和装置
CN108989882B (zh) 用于输出视频中的音乐片段的方法和装置
CN107193792B (zh) 基于人工智能的生成文章的方法和装置
CN112533051B (zh) 弹幕信息显示方法、装置、计算机设备和存储介质
CN107241260B (zh) 基于人工智能的新闻推送的方法和装置
CN109165302B (zh) 多媒体文件推荐方法及装置
CN109543058B (zh) 用于检测图像的方法、电子设备和计算机可读介质
CN109697239B (zh) 用于生成图文信息的方法
CN109121022B (zh) 用于标记视频片段的方法及装置
CN110740389B (zh) 视频定位方法、装置、计算机可读介质及电子设备
CN109582825B (zh) 用于生成信息的方法和装置
CN108509611B (zh) 用于推送信息的方法和装置
CN109271556B (zh) 用于输出信息的方法和装置
CN114666663A (zh) 用于生成视频的方法和装置
CN111597446B (zh) 基于人工智能的内容推送方法、装置、服务器和存储介质
CN107862058B (zh) 用于生成信息的方法和装置
CN110019948B (zh) 用于输出信息的方法和装置
CN111314732A (zh) 确定视频标签的方法、服务器及存储介质
US11750898B2 (en) Method for generating target video, apparatus, server, and medium
CN111897950A (zh) 用于生成信息的方法和装置
CN108038172B (zh) 基于人工智能的搜索方法和装置
CN114845149B (zh) 视频片段的剪辑方法、视频推荐方法、装置、设备及介质
CN113343069A (zh) 用户信息的处理方法、装置、介质及电子设备
CN115618873A (zh) 数据处理方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant