CN116546274B - 视频切分方法、选取方法、合成方法及相关装置 - Google Patents

视频切分方法、选取方法、合成方法及相关装置 Download PDF

Info

Publication number
CN116546274B
CN116546274B CN202310827728.0A CN202310827728A CN116546274B CN 116546274 B CN116546274 B CN 116546274B CN 202310827728 A CN202310827728 A CN 202310827728A CN 116546274 B CN116546274 B CN 116546274B
Authority
CN
China
Prior art keywords
video
image
determining
frame
image frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310827728.0A
Other languages
English (en)
Other versions
CN116546274A (zh
Inventor
赵焰喆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honor Device Co Ltd
Original Assignee
Honor Device Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honor Device Co Ltd filed Critical Honor Device Co Ltd
Priority to CN202310827728.0A priority Critical patent/CN116546274B/zh
Publication of CN116546274A publication Critical patent/CN116546274A/zh
Application granted granted Critical
Publication of CN116546274B publication Critical patent/CN116546274B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440281Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the temporal resolution, e.g. by frame skipping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/48Matching video sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/49Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44016Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

本申请实施例提供了一种视频切分方法、选取方法、合成方法及相关装置。视频切分方法包括:根据图像帧抽取规则,从待处理的视频中抽取多个图像帧作为待处理的图像帧序列;将图像帧序列输入深度学习模型得到每帧图像的图像特征;根据图像帧序列中所有图像帧的图像特征确定特征相似度矩阵,利用滤波矩阵对特征相似度矩阵进行滑动卷积得到边界得分序列;根据边界得分序列和预设的边界峰值确定视频的切分位置;基于切分位置对视频进行切分。采用该方案,通过深度学习模型得到每帧图像的图像特征,图像特征用于表示图像帧的语义,在切分视频时考虑了图像的语义,使得切分后的视频片段与语义相关,有利于在进行视频合成时选取相关的视频片段进行处理。

Description

视频切分方法、选取方法、合成方法及相关装置
技术领域
本申请涉及视频处理技术领域,尤其涉及视频切分方法、选取方法、合成方法及相关装置。
背景技术
图库回忆等视频处理应用具有将手机等电子设备中与某个主题相关的图像和视频进行合成的功能,目前在合成某一主题的视频时,通常采用截取视频的前3秒进行合成。需要说明的是,被截取的前3秒视频可能是与主题关联度比较低或者画面质量较低的视频片段,这种视频片段这会影响合成的视频效果。
因此,如何对视频进行切分,以便视频合成时对切分后的视频片段进行选取,得到与主题更相关的视频片段是需要解决的问题。
发明内容
本申请提供了一种视频切分方法、选取方法、合成方法及相关装置,能够将视频中复杂多变的内容按照语义进行切分,有利于后续在进行视频合成时选取相关的视频片段进行处理。
为实现上述技术目的,本申请采用如下技术方案:
第一方面,本身提供了一种视频切分方法,所述方法包括:
根据预设的图像帧抽取规则,从待处理的视频中抽取多个图像帧作为待处理的图像帧序列;
将所述图像帧序列输入预设的深度学习模型得到每帧图像的图像特征;所述图像特征用于表示对应图像帧的语义;
根据所述图像帧序列中所有图像帧的图像特征确定特征相似度矩阵,所述特征相似度矩阵用于表示所述图像帧序列中任意两个图像帧的相似度;
利用预设的滤波矩阵对所述特征相似度矩阵进行滑动卷积计算得到边界得分序列;
根据所述边界得分序列和预设的边界峰值确定所述视频的切分位置;
基于所述切分位置对所述视频进行切分。
采用该方案,通过深度学习模型得到每帧图像的图像特征,图像特征用于表示图像帧的语义,在切分视频时考虑了图像的语义,使得切分后的视频片段与语义相关,有利于在进行视频合成时选取相关的视频片段进行处理。
可选的,所述预设抽取规则包括:每隔预设步长抽取一个图像帧。
可选的,所述滤波矩阵M为m×m的矩阵,m为奇数,所述m小于所述图像帧序列中图像帧的数量,所述M的中间行和中间列对应的元素都为0,所述M的中间行和中间列将所述M划分为左上角、右上角、左下角、右下角四个部分,每个部分为(m-1)/2 ×(m-1)/2的矩阵,所述左上角和右下角对应的矩阵中的元素都是a,右上角和左下角对应的矩阵中的元素都是-a,其中,所述a为正数。比如,若a为1,则
M=
第二方面,本申请提供了一种视频片段选取方法,采用第一方面或者第一方面任一可能的实施方式对视频进行切分得到多个视频片段;所述方法还包括:
根据抽取的每帧图像的图像特征确定每帧图像分别对应的标签,所述标签用于表示对应图像帧包括的场景和/或物体;
采用质量分析算法确定所述抽取的每帧图像的质量得分,所述质量得分用于表示图像帧的清晰度;
聚合每个视频片段所包含的被抽取的图像帧对应的标签,确定每个视频片段对应的标签内容;
根据每个视频片段所包含的被抽取的图像帧对应的质量得分的均值确定每个视频片段的质量得分;
根据各视频片段对应的标签内容和质量得分确定被选取的视频片段。
可选的,所述根据各视频片段对应的标签内容和质量得分确定被选取的视频片段,包括:
根据各视频片段对应的标签内容,确定所述各视频片段对应的标签内容与目标视频的匹配值;
根据视频片段对应的质量得分从匹配值超过预设匹配值的视频片段中确定被选取的视频片段。
第三方面,本申请提供了一种视频合成方法,集成第二方面或者第二方面任一可能的实施方式确定的被选取的视频片段生成视频。
第四方面,本申请提供了一种视频切分装置,所述装置包括:
抽取单元,用于根据预设的图像帧抽取规则,从待处理的视频中抽取多个图像帧作为待处理的图像帧序列;
第一处理单元,用于将所述图像帧序列输入预设的深度学习模型得到每帧图像的图像特征;所述图像特征用于表示对应图像帧的语义;
第二处理单元,用于根据所述图像帧序列中所有图像帧的图像特征确定特征相似度矩阵,所述特征相似度矩阵用于表示所述图像帧序列中任意两个图像帧的相似度;
第三处理单元,用于利用预设的滤波矩阵对所述特征相似度矩阵进行滑动卷积计算得到边界得分序列;
第一确定单元,用于根据所述边界得分序列和预设的边界峰值确定所述视频的切分位置;
切分单元,用于基于所述切分位置对所述视频进行切分。
第五方面,本申请提供了一种视频片段选取装置,包括第四方面所述的视频切分装置,所述视频切分装置对视频进行切分得到多个视频片段;所述视频片段选取装置还包括:
第二确定单元,用于根据抽取的每帧图像的图像特征确定每帧图像分别对应的标签,所述标签用于表示对应图像帧包括的场景和/或物体;
第三确定单元,用于采用质量分析算法确定所述抽取的每帧图像的质量得分,所述质量得分用于表示图像帧的清晰度;
第四确定单元,用于聚合每个视频片段中所包含的图像帧对应的标签,确定每个视频片段对应的标签内容;
第五确定单元,用于根据每个视频片段中所包含的图像帧对应的质量得分的均值确定每个视频片段的质量得分;
第六确定单元,用于根据各视频片段对应的标签内容和质量得分确定被选取的视频片段。
第六方面,本申请提供了一种视频合成装置,包括第五方面所述的视频片段选取装置,所述视频合成装置还包括,
集成单元,用于集成所述视频片段选取装置选取的视频片段生成视频。
第七方面,本申请提供了一种电子设备,包括:存储器和一个或多个处理器,所述存储器与所述处理器耦合;其中,所述存储器中存储有计算机程序代码,所述计算机程序代码包括计算机指令,当所述计算机指令被所述处理器执行时,使得所述电子设备执行如第一方面、第一方面任一可能的实施方式、第二方面、第二方面任一可能的实施方式、第三方面、或者第三方面任一可能的实施方式所述的方法。
第八方面,本申请提供了一种计算机可读存储介质,包括计算机指令,当所述计算机指令在电子设备上运行时,使得所述电子设备执行如第一方面、第一方面任一可能的实施方式、第二方面、第二方面任一可能的实施方式、第三方面、或者第三方面任一可能的实施方式所述的方法。
可以理解的是,上述第二方面到第八方面提供的技术方案可以分别对应到如第一方面及其可能的实现中提供的任一种方案中,能够达到的有益效果类似,此处不再赘述。
附图说明
图1A为本申请实施例提供的一种视频切分方法的流程示意图;
图1B为本申请实施例提供的一种视频切分方法的流程示意图;
图2为本申请实施例提供的一种视频片段选取方法的流程示意图;
图3A为本申请实施例提供的一种视频合成方法的流程示意图;
图3B为本申请实施例提供的一种视频合成方法的流程示意图;
图4为本申请实施例提供的一种电子设备的组成示意图;
图5为本申请实施例提供的一种芯片***的组成示意图。
具体实施方式
以下,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本实施例的描述中,除非另有说明,“多个”的含义是两个或两个以上。
根据手机、平板、电脑等电子设备上的图片或者视频生成目标视频时(比如回忆视频、美食视频、旅游视频等),如果选取的视频片段中的内容与目标视频的语义匹配时,则目标视频具有较好效果。相对于现有技术中只选取视频前三秒合成到目标视频,本申请提供的视频切分方法,方便按照语义对视频进行切分,有利于在后续合成目标视频时,使被合成的视频片段与目标视频的表示主题更匹配,效果更好。
本申请对如何进行视频切分、对切分后的视频片段如何进行选取、以及集成选取的视频片段得到目标视频进行了介绍。
参见图1A,图1A是本申请一实施例提供的一种视频切分方法的流程示意图,如图1A所示,视频切分方法可以包括步骤101至步骤106,其中:
101.根据预设的图像帧抽取规则,从待处理的视频中抽取多个图像帧作为待处理的图像帧序列。
在一些可能的实施方式中,图像帧抽取规则包括:每隔预设步长抽取一个图像帧。需要说明的是,也可以每隔预设时间间隔抽取一个图像帧。可以均匀抽取,也可以不均匀抽取,比如可以每隔10帧抽取一个图像帧,也可以每隔0.1秒抽取一帧,还可以前面5秒钟每隔10帧抽取一帧,后面每隔5帧抽取一帧等都是这行的,这里不做限定。
如图1B所示,在该实施例中可以每隔1秒抽取一帧,比如,第0秒开始抽取第一帧图像,第一秒抽取第二帧图像,从待处理的图像中按照该图像帧抽取规则,共抽取N帧图像,N=11。
102.将图像帧序列输入预设的深度学习模型得到每帧图像的图像特征;图像特征用于表示对应图像帧的语义。
在图1B所示的示例中,将抽取得到的11帧图像依次输入预设的深度学习模型,深度学习模型输出图像特征,图像特征可以表示图像帧的语义。深度学习模型可以是用包括多个语义标签的图像集合进行训练得到。
103.根据图像帧序列中所有图像帧的图像特征确定特征相似度矩阵,特征相似度矩阵用于表示所述图像帧序列中任意两个图像帧的相似度。
在图1B所示的示例中,相似度矩阵如图1B中间11*11的矩阵所示。相似度矩阵可以由图像特征通过欧式计算、归一化处理后得到。
104.利用预设的滤波矩阵对特征相似度矩阵进行滑动卷积计算得到边界得分序列。
在一些可能的实施例中,滤波矩阵M为m×m的矩阵,m为奇数,m小于所述图像帧序列中图像帧的数量,M的中间行和中间列对应的元素都为0,M的中间行和中间列将M划分为左上角、右上角、左下角、右下角四个部分,每个部分为(m-1)/2×(m-1)/2的矩阵,左上角和右下角对应的矩阵中的元素都是a,右上角和左下角对应的矩阵中的元素都是-a,其中,a为正数,若a=1,则
M=
在图1B所示的示例中,m为5,第三行和第三列中的元素都为0,左上角和右下角为元素都是1的二阶矩阵,右上角和左下角为元素都是-1的二阶矩阵。滤波矩阵对特征相似度矩阵进行滑动卷积计算得到边界得分序列:3.5、1.9、1.8、2.5、4.7、6.4、5、2.4、2、1.8、3.8。
105.根据边界得分序列和预设的边界峰值确定视频的切分位置。
若预设的边界峰值为6,则确定切分位置为第六帧图像所处位置,也就是第5秒的位置。预设的边界峰值可以根据经验确定。
106.基于切分位置对所述视频进行切分。
在图1B所示的示例中,根据步骤105确定的切分位置,可以将视频分为两个片段:片段A和片段B,其中,片段A对应0~5秒视频片段,片段B对应5~10秒视频片段。
采用该方案,通过深度学习模型得到每帧图像的图像特征,图像特征用于表示图像帧的语义,在切分视频时考虑了图像的语义,使得切分后的视频片段与语义相关,有利于在进行视频合成时选取相关的视频片段进行处理。
在视频切分后,可以对切分得到的视频片段进行选取,将被合并到目标视频中的视频片段。
参见图2,图2是本申请一实施例提供的一种视频片段选取方法的流程示意图,如图2所示,视频片段选取方法可以包括步骤201至步骤211,其中:
201.根据预设的图像帧抽取规则,从待处理的视频中抽取多个图像帧作为待处理的图像帧序列。
在一些可能的实施方式中,图像帧抽取规则包括:每隔预设步长抽取一个图像帧。需要说明的是,也可以每隔预设时间间隔抽取一个图像帧。可以均匀抽取,也可以不均匀抽取,比如可以每隔10帧抽取一个图像帧,也可以每隔0.1秒抽取一帧,还可以前面5秒钟每隔10帧抽取一帧,后面每隔5帧抽取一帧等都是这行的,这里不做限定。
如图1B所示,在该实施例中可以每隔1秒抽取一帧,比如,第0秒开始抽取第一帧图像,第一秒抽取第二帧图像,从待处理的图像中按照该图像帧抽取规则,共抽取N帧图像,N=11。
202.将图像帧序列输入预设的深度学习模型得到每帧图像的图像特征;图像特征用于表示对应图像帧的语义。
在图1B所示的示例中,将抽取得到的11帧图像依次输入预设的深度学习模型,深度学习模型输出图像特征,图像特征可以表示图像帧的语义。深度学习模型可以是用包括多个语义标签的图像集合进行训练得到。
203.根据图像帧序列中所有图像帧的图像特征确定特征相似度矩阵,特征相似度矩阵用于表示所述图像帧序列中任意两个图像帧的相似度。
在图1B所示的示例中,相似度矩阵如图1B中间11*11的矩阵所示。相似度矩阵可以由图像特征通过欧式计算、归一化处理后得到。
204.利用预设的滤波矩阵对特征相似度矩阵进行滑动卷积计算得到边界得分序列。
在一些可能的实施例中,滤波矩阵M为m×m的矩阵,m为奇数,m小于所述图像帧序列中图像帧的数量,M的中间行和中间列对应的元素都为0,M的中间行和中间列将M划分为左上角、右上角、左下角、右下角四个部分,每个部分为(m-1)/2×(m-1)/2的矩阵,左上角和右下角对应的矩阵中的元素都是a,右上角和左下角对应的矩阵中的元素都是-a,其中,a为正数,若a=1,则
M=
在图1B所示的示例中,m为5,第三行和第三列中的元素都为0,左上角和右下角为元素都是1的二阶矩阵,右上角和左下角为元素都是-1的二阶矩阵。滤波矩阵对特征相似度矩阵进行滑动卷积计算得到边界得分序列:3.5、1.9、1.8、2.5、4.7、6.4、5、2.4、2、1.8、3.8。
205.根据边界得分序列和预设的边界峰值确定视频的切分位置。
若预设的边界峰值为6,则确定切分位置为第六帧图像所处位置,也就是第5秒的位置。预设的边界峰值可以根据经验确定。
206.基于切分位置对所述视频进行切分。
在图1B所示的示例中,根据步骤105确定的切分位置,可以将视频分为两个片段:片段A和片段B,其中,片段A对应0~5秒视频片段,片段B对应5~10秒视频片段。
207.根据抽取的每帧图像的图像特征确定每帧图像分别对应的标签,标签用于表示对应图像帧包括的场景和/或物体。
根据图像特征得到与图像特征对应的标签,标签用于表示对应图像帧包括的场景和/或物体,举例来说,标签可以是:小狗,公园、树木等,也可以是旅游、美食等场景。
208.采用质量分析算法确定抽取的每帧图像的质量得分,质量得分用于表示图像帧的清晰度。
可以用图像的质量得分评估对应帧图像的清晰度,比如值越大越图像清醒,值越小越图像越模糊等。
209.聚合每个视频片段所包含的被抽取的图像帧对应的标签,确定每个视频片段对应的标签内容。
比如片段A中可以聚合第1帧到第5帧图像的标签,将标签的集合以及标签的置信度来作为片段A的标签内容,其中置信度可以根据某个标签在视频片段中出现的频率来确定,如果在每帧图像中都有某个标签,则该标签的置信度可以为1,若5帧图像中有4帧图像包括某个标签,则该标签的置信度可以为0.8。
210.根据每个视频片段所包含的被抽取的图像帧对应的质量得分的均值确定每个视频片段的质量得分。
211.根据各视频片段对应的标签内容和质量得分确定被选取的视频片段。
具体地,可以结合目标视频的需要,比如目标视频是美食视频,则可以确定与该视频最相关的一个或者多个标签,根据与目标视频对应的标签的匹配性确定若干个视频片段。然后根据这若干个视频片段中每个视频片段的质量得分选取清晰度最高的视频片段。
需要说明的是,在选取视频片段时,根据标签和质量得分如何确定被选取的视频片段可以根据需要进行设定,这里不做限定。
选取视频片段后,可以进一步地将视频片段集成到目标视频中,如图3A所示,视频合成方法可以包括步骤301至步骤312,其中:
301.根据预设的图像帧抽取规则,从待处理的视频中抽取多个图像帧作为待处理的图像帧序列。
在一些可能的实施方式中,图像帧抽取规则包括:每隔预设步长抽取一个图像帧。需要说明的是,也可以每隔预设时间间隔抽取一个图像帧。可以均匀抽取,也可以不均匀抽取,比如可以每隔10帧抽取一个图像帧,也可以每隔0.1秒抽取一帧,还可以前面5秒钟每隔10帧抽取一帧,后面每隔5帧抽取一帧等都是这行的,这里不做限定。
如图1B所示,在该实施例中可以每隔1秒抽取一帧,比如,第0秒开始抽取第一帧图像,第一秒抽取第二帧图像,从待处理的图像中按照该图像帧抽取规则,共抽取N帧图像,N=11。
302.将图像帧序列输入预设的深度学习模型得到每帧图像的图像特征;图像特征用于表示对应图像帧的语义。
在图1B所示的示例中,将抽取得到的11帧图像依次输入预设的深度学习模型,深度学习模型输出图像特征,图像特征可以表示图像帧的语义。深度学习模型可以是用包括多个语义标签的图像集合进行训练得到。
303.根据图像帧序列中所有图像帧的图像特征确定特征相似度矩阵,特征相似度矩阵用于表示所述图像帧序列中任意两个图像帧的相似度。
在图1B所示的示例中,相似度矩阵如图1B中间11*11的矩阵所示。相似度矩阵可以由图像特征通过欧式计算、归一化处理后得到。
304.利用预设的滤波矩阵对特征相似度矩阵进行滑动卷积计算得到边界得分序列。
在一些可能的实施例中,滤波矩阵M为m×m的矩阵,m为奇数,m小于所述图像帧序列中图像帧的数量,M的中间行和中间列对应的元素都为0,M的中间行和中间列将M划分为左上角、右上角、左下角、右下角四个部分,每个部分为(m-1)/2 ×(m-1)/2的矩阵,左上角和右下角对应的矩阵中的元素都是a,右上角和左下角对应的矩阵中的元素都是-a,其中,a为正数,若a=1,则
M=
在图1B所示的示例中,m为5,第三行和第三列中的元素都为0,左上角和右下角为元素都是1的二阶矩阵,右上角和左下角为元素都是-1的二阶矩阵。滤波矩阵对特征相似度矩阵进行滑动卷积计算得到边界得分序列:3.5、1.9、1.8、2.5、4.7、6.4、5、2.4、2、1.8、3.8。
305.根据边界得分序列和预设的边界峰值确定视频的切分位置。
若预设的边界峰值为6,则确定切分位置为第六帧图像所处位置,也就是第5秒的位置。预设的边界峰值可以根据经验确定。
306.基于切分位置对所述视频进行切分。
在图1B所示的示例中,根据步骤105确定的切分位置,可以将视频分为两个片段:片段A和片段B,其中,片段A对应0~5秒视频片段,片段B对应5~10秒视频片段。
307.根据抽取的每帧图像的图像特征确定每帧图像分别对应的标签,标签用于表示对应图像帧包括的场景和/或物体。
根据图像特征得到与图像特征对应的标签,标签用于表示对应图像帧包括的场景和/或物体,举例来说,标签可以是:小狗,公园、树木等,也可以是旅游、美食等场景。
308.采用质量分析算法确定抽取的每帧图像的质量得分,质量得分用于表示图像帧的清晰度。
可以用图像的质量得分评估对应帧图像的清晰度,比如值越大越图像清醒,值越小越图像越模糊等。
309.聚合每个视频片段所包含的被抽取的图像帧对应的标签,确定每个视频片段对应的标签内容。
比如片段A中可以聚合第1帧到第5帧图像的标签,将标签的集合以及标签的置信度来作为片段A的标签内容,其中置信度可以根据某个标签在视频片段中出现的频率来确定,如果在每帧图像中都有某个标签,则该标签的置信度可以为1,若5帧图像中有4帧图像包括某个标签,则该标签的置信度可以为0.8。
310.根据每个视频片段所包含的被抽取的图像帧对应的质量得分的均值确定每个视频片段的质量得分。
311.根据各视频片段对应的标签内容和质量得分确定被选取的视频片段。
具体地,可以结合目标视频的需要,比如目标视频是美食视频,则可以确定与该视频最相关的一个或者多个标签,根据与目标视频对应的标签的匹配性确定若干个视频片段。然后根据这若干个视频片段中每个视频片段的质量得分选取清晰度最高的视频片段。
需要说明的是,在选取视频片段时,根据标签和质量得分如何确定被选取的视频片段可以根据需要进行设定,这里不做限定。
312.集成被选取的视频片段生成视频。
需要说明的是,本申请对上述方法实施例中各步骤之间的顺序不做限定,可以根据具体情况做调整,都是可行的。如图3B所示,抽取图像帧后,可以将每帧图像分别输入深度学习模型和质量分析算法模型,深度学习算法模型输出每帧图像的图像特征,根据图像特征再确定与图像特征对应的语义匹配的标签,以及根据质量算法模型得到每帧图像的质量得分。然后根据图像序列按照前面实施例提供的视频切分方法对视频进行切分,比如切分得到X个视频片段,结合与目标视频相关的标签信息得到目标视频片段,最后将选取的目标视频片段合成到目标视频中。
采用该实施例提供的技术方案得到的合成的视频片段与目标视频对应的场景更加贴切,有利于提高用户体验。
本申请实施例还提供了一种视频切分装置,视频切分装置包括:抽取单元、第一处理单元、第二处理单元、第三处理单元、第一确定单元和切分单元。其中,抽取单元,用于根据预设的图像帧抽取规则,从待处理的视频中抽取多个图像帧作为待处理的图像帧序列;第一处理单元,用于将图像帧序列输入预设的深度学习模型得到每帧图像的图像特征;图像特征用于表示对应图像帧的语义;第二处理单元,用于根据图像帧序列中图像帧的图像特征确定特征相似度矩阵,特征相似度矩阵用于表示所述图像帧序列中任意两个图像帧的相似度;第三处理单元,用于利用预设的滤波矩阵对特征相似度矩阵进行滑动卷积计算得到边界得分序列;第一确定单元,用于根据边界得分序列和预设的边界峰值确定视频的切分位置;切分单元,用于基于切分位置对所述视频进行切分。各单元的具体实施方式可以参见前面方法实施例中对视频切分方法的描述,为简洁起见,这里不再赘述。
本申请实施例还提供了一种视频片段选取装置,包括前面实施例公开的视频切分装置,视频切分装置对视频进行切分得到多个视频片段;视频片段选取装置还包括:第二确定单元、第三确定单元、第四确定单元、第五确定单元和第六确定单元。其中,第二确定单元,用于根据抽取的每帧图像的图像特征确定每帧图像分别对应的标签,标签用于表示对应图像帧包括的场景和/或物体;第三确定单元,用于采用质量分析算法确定抽取的每帧图像的质量得分,质量得分用于表示图像帧的清晰度;第四确定单元,用于聚合每个视频片段中所包含的图像帧对应的标签,确定每个视频片段对应的标签内容。第五确定单元,用于根据每个视频片段中所包含的图像帧对应的质量得分的均值确定每个视频片段的质量得分。第六确定单元,用于根据各视频段对应的标签内容和质量得分确定被选取的视频段。各单元的具体实施方式可以参见前面方法实施例中视频片段选取方法中的描述,为简洁起见,这里不再赘述。
本申请实施例还提供了一种视频合成装置,包括前面实施例公开的视频片段选取装置,还包括集成单元,集成单元,用于集成视频片段选取装置选取的视频片段生成目标视频。各单元的具体实施方式可以参见前面方法实施例中视频片段选取方法中的描述,为简洁起见,这里不再赘述。
本申请实施例还提供了一种电子设备,包括:存储器和一个或多个处理器,所述存储器与所述处理器耦合;其中,所述存储器中存储有计算机程序代码,所述计算机程序代码包括计算机指令,当所述计算机指令被所述处理器执行时,使得所述电子设备执行前面任一方法实施例中所述的方法。
接下来,对本申请实施例涉及的电子设备予以说明。
图4是本申请实施例提供的一种电子设备400的结构示意图,其具体可以是手机、平板电脑等设备。参见图4,电子设备400可以包括处理器410,外部存储器接口420,内部存储器421,通用串行总线(universal serial bus,USB)接口430,充电管理模块440,电源管理模块441,电池442,天线1,天线2,移动通信模块450,无线通信模块460,音频模块470,扬声器470A,受话器470B,麦克风470C,耳机接口470D,传感器模块480,按键490,马达491,指示器492,摄像头493,屏幕494,以及用户标识模块(subscriber identification module,SIM)卡接口495等。其中,传感器模块480可以包括压力传感器480A,陀螺仪传感器480B,气压传感器480C,磁传感器480D,加速度传感器480E,距离传感器480F,接近光传感器480G,指纹传感器480H,温度传感器480J,触摸传感器480K,环境光传感器480L,骨传导传感器480M等。
处理器410可以包括一个或多个处理单元,比如:处理器410可以包括AP、CP、调制解调处理器、图形处理器(graphics processing unit,GPU)、图像信号处理器(imagesignal processor,ISP)、控制器、存储器、视频编解码器、数字信号处理器(digitalsignal processor,DSP)、基带处理器、和/或神经网络处理器(neural-networkprocessing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
其中,控制器可以是电子设备400的神经中枢和指挥中心。控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
处理器410中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器410中的存储器为高速缓冲存储器。该存储器可以保存处理器410刚用过或循环使用的指令或数据。如果处理器410需要再次使用该指令或数据,可从该存储器中直接调用。避免了重复存取,减少了处理器410的等待时间,因而提高了***的效率。处理器还可以设置低功耗存储器(比如,Island 低功耗等)以降低功耗。
电子设备400通过GPU,屏幕494,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接屏幕494和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器410可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
屏幕494用于显示图像,视频等。屏幕494包括显示面板。显示面板可以采用液晶屏幕(liquid crystal display,LCD)、有机发光二极管(organic light-emitting diode,OLED)、有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrix organiclight emitting diode,AMOLED)、柔性发光二极管(flex light-emitting diode,FLED)、Miniled、MicroLed、Micro-OLED、量子点发光二极管(quantum dot light emittingdiodes,QLED)等。在一些实施例中,电子设备400可以包括1个或N个屏幕494,N为大于1的整数。
电子设备400可以通过ISP,摄像头493,视频编解码器,GPU,屏幕494以及应用处理器等实现拍摄功能。
ISP 用于处理摄像头493反馈的数据。比如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将电信号传递给ISP处理,转化为肉眼可见的图像。ISP还可以对图像的噪点,亮度,肤色进行算法优化。ISP还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,ISP可以设置在摄像头493中。
摄像头493用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。在一些实施例中,电子设备400可以包括1个或N个摄像头493,N为大于1的整数。
外部存储器接口420可以用于连接外部存储卡,比如Micro SD卡,实现扩展电子设备400的存储能力。外部存储卡通过外部存储器接口420与处理器410通信,实现数据存储功能。比如将音乐,视频等文件保存在外部存储卡中。
内部存储器421可以用于存储计算机可执行程序代码,计算机可执行程序代码包括指令。处理器410通过运行存储在内部存储器421的指令,来执行电子设备400的各种功能应用以及数据处理。内部存储器421可以包括存储程序区和存储数据区。其中,存储程序区可存储操作***,至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储电子设备400在使用过程中所创建的数据(比如音频数据,电话本等)等。此外,内部存储器421可以包括高速随机存取存储器,还可以包括非易失性存储器,比如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。
加速度传感器480E可检测电子设备400在各个方向上(一般为三轴)加速度的大小。当电子设备400静止时可检测出重力的大小及方向。加速度传感器480E还可以用于识别电子设备400的姿态,应用于横竖屏切换,计步器等应用。当然,加速度传感器480E也可以结合陀螺仪传感器480B,来识别电子设备400的姿态,应用于横竖屏切换。
陀螺仪传感器480B可以用于确定电子设备400的运动姿态。在一些实施例中,可以通过陀螺仪传感器480B确定电子设备400围绕三个轴(即,x,y和z轴)的角速度。陀螺仪传感器480B可以用于拍摄防抖。示例性的,当按下快门,陀螺仪传感器480B检测电子设备400抖动的角度,根据角度计算出镜头模组需要补偿的距离,让镜头通过反向运动抵消电子设备400的抖动,实现防抖。陀螺仪传感器480B还可以用于横竖屏切换,导航,体感游戏场景。
可以理解的是,本申请实施例示意的结构并不构成对电子设备400的具体限定。在本申请另一些实施例中,电子设备400可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
本申请实施例提供的电子设备可以是用户设备(user equipment,UE),例如移动终端(如手机)、平板电脑等设备。
另外,在上述部件之上,运行有操作***。例如可以是谷歌公司所开发的Android开源操作***等。
电子设备的软件***可以采用分层架构,事件驱动架构,微核架构,微服务架构,或云架构等。为了更清楚的说明本申请实施例提供的触控操作的识别方法,本申请实施例以分层架构的安卓(Android)***为例,对电子设备的软件***进行示例性说明。
如图5所示,电子设备可以包括硬件层和软件层,其中,分层架构的Android***可以包括应用层,应用框架层,***库层和内核层。在一些可选的实施例中,电子设备的***还可以包括上述技术架构未提及的层级,如安卓运行时(Android Runtime)。应用程序层可以包括一系列应用程序包,如导航应用、音乐应用、视频应用、和指关节敲击屏幕应用等。应用程序包可以包括视频、聊天等应用,以及***用户界面(system user interface,SystemUI),指关节敲击屏幕应用可以用于截屏、录屏、长截屏、区域截屏等。
视频、聊天等应用用于为用户提供对应的服务。例如,用户使用视频应用观看视频,使用聊天应用和其他用户聊天,使用音乐应用收听音乐,使用视频合成利用已有的图像和视频生成回忆视频等。
SystemUI用于管理电子设备的人机交互界面(user interface,UI),在本申请实施例中,SystemUI用于监测触控屏上的触控操作。
应用程序框架层为应用程序层的应用程序提供应用编程接口(applicationprogramming interface,API)和编程框架。应用程序框架层包括一些预先定义的函数。应用程序框架层可以包括窗口管理服务模块(window manage service,WMS),显示旋转模块(又称DisplayRotation),应用管理服务模块(activity manage service,AMS)、输入管理模块(又称Input)和图像处理模块等。
WMS用于管理窗口程序。窗口管理器可以获取屏幕大小,判断是否有状态栏,对屏幕中的图像进行抠图截取屏幕等。本申请实施例中,WMS可以创建并管理应用对应的窗口。
显示旋转模块用于控制屏幕进行旋转,通过旋转使得屏幕呈现出竖屏或者横屏的布局。比如在确定需要进行屏幕旋转时,通知Surfaceflinger进行应用界面的横竖屏切换。
AMS用于根据用户的操作启动特定的应用。例如,当图像完成合成操作后,触发图像在屏幕中主键显示出来,在图像显示出来后,触发对确定需要被执行抠图操作的图像执行抠图操作,并创建视频应用对应的应用堆栈,使视频应用能够正常运行。
***库层可以包括多个功能模块,比如:传感器模块(又称sensor)和SurfaceFlinger。
传感器模块用于获取传感器采集的数据,比如采集屏幕下的环境光。采集电子设备的重力方向信息。或者,传感器模块也可以根据环境光调节屏幕的亮度,以及根据电子设备的重力方向信息,确定电子设备的横竖屏状态信息,横竖屏状态信息用于指示电子设备处于横屏状态还是竖屏状态。
Surfaceflinger是一种***服务,用于图层的创建、控制和管理等功能。
另外,***库层还可以包括:表面管理器(surface manager),媒体库(MediaLibraries),三维图形处理库(比如:OpenGL ES),2D图形引擎(比如:SGL)等。表面管理器用于对显示子***进行管理,并且为多个应用程序提供了2D和3D图层的融合。媒体库支持多种常用的音频,视频格式回放和录制,以及静态图像文件等。媒体库可以支持多种音视频编码格式,比如:MPEG4,H.264,MP3,AAC,AMR,JPG,PNG等。三维图形处理库用于实现三维图形绘图,图像渲染,合成,和图层处理等。2D图形引擎是2D绘图的绘图引擎。
内核层是硬件和软件之间的层。在本申请实施例中,内核层至少包含触控驱动模块和显示驱动模块。
显示驱动模块用于根据应用框架层的模块和应用层的应用程序所提供的图像数据,在屏幕中显示合成的图像。例如,视频应用将视频的一帧图像数据传递给显示驱动模块,显示驱动模块根据该图像数据在触摸屏上显示视频中的一帧图像。SystemUI将图像数据传递给显示驱动模块,显示驱动模块将合成后的图像在屏幕中显示出来。
触控驱动模块用于监测触摸屏各区域的容值数据。当用户在触摸屏上点击或滑动时,被点击或滑动的区域的电容值会发生变化,触控驱动模块能够监测到触摸屏上各区域电容值的变化,并向输入管理模块发送电容值变化的消息,电容值数据变化消息中携带有触摸屏各个区域的电容值的变化幅度以及发生变化的时间等信息。
输入管理模块根据上报的电容值变化消息可以确定触控操作,然后将识别到的触控操作发送给其他模块。这里的触控操作可以包括指关节敲击操作、点击操作、拖拽操作、以及特定的手势操作(如上滑手势操作,横滑手势操作等)。
硬件层包括屏幕和环境光传感器等,环境光传感器用于检测屏幕下面的环境光信息等。应用处理器监测对触控屏的触控操作,基带处理器监听加速度数据并将监听到的加速度数据存储到存储模块,在AP监测到触控操作时,CP根据存储模块存储的加速度数据识别触控操作是否为指关节敲击动作;CP将识别结果发送给AP。
上述技术架构列举了电子设备中本申请可能涉及的模块和器件。在实际应用中,电子设备可以包括上述技术架构的全部或部分模块和器件,以及其他上述技术架构未提及的模块和器件,当然,也可以只包括上述技术架构的模块和器件,本实施例对此不做限定。
本申请实施例还提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机程序,当计算机程序被处理器执行时能够实现上述各个方法实施例中的步骤。
本申请实施例提供了一种计算机程序产品,该计算机程序产品包括计算机程序,当计算机程序被处理器执行时能够实现上述各个方法实施例中的步骤。
本申请实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质至少可以包括:能够将计算机程序代码携带到拍照装置/电子设备的任何实体或装置、记录介质、计算机存储器、只读存储器(read-only memory,ROM)、随机存取存储器(random accessmemory,RAM)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的方法和电子设备,可以通过其它的方式实现。例如,以上所描述的装置/网络设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个***,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
应当理解,当在本申请说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
在本申请说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (10)

1.一种视频切分方法,其特征在于,所述方法包括:
根据预设的图像帧抽取规则,从待处理的视频中抽取多个图像帧作为待处理的图像帧序列;
将所述图像帧序列输入预设的深度学习模型得到每帧图像的图像特征;所述图像特征用于表示对应图像帧的语义;
根据所述图像帧序列中所有图像帧的图像特征确定特征相似度矩阵,所述特征相似度矩阵用于表示所述图像帧序列中任意两个图像帧的相似度;
利用预设的滤波矩阵M对所述特征相似度矩阵进行滑动卷积计算得到边界得分序列;所述滤波矩阵M为m×m的矩阵,m为奇数,所述m小于所述图像帧序列中图像帧的数量,所述M的中间行和中间列对应的元素都为0,所述M的中间行和中间列将所述M划分为左上角、右上角、左下角、右下角四个部分,每个部分为(m-1)/2 ×(m-1)/2的矩阵,所述左上角和右下角对应的矩阵中的元素都是a,右上角和左下角对应的矩阵中的元素都是-a,其中,所述a为正数;
根据所述边界得分序列和预设的边界峰值确定所述视频的切分位置;
基于所述切分位置对所述视频进行切分。
2.根据权利要求1所述的方法,其特征在于,
所述图像帧抽取规则包括:每隔预设步长抽取一个图像帧。
3.一种视频片段选取方法,其特征在于,采用权利要求1或2中任一项方法对视频进行切分得到多个视频片段;所述方法还包括:
根据抽取的每帧图像的图像特征确定每帧图像分别对应的标签,所述标签用于表示对应图像帧包括的场景和/或物体;
采用质量分析算法确定所述抽取的每帧图像的质量得分,所述质量得分用于表示图像帧的清晰度;
聚合每个视频片段所包含的被抽取的图像帧对应的标签,确定每个视频片段对应的标签内容;
根据每个视频片段所包含的被抽取的图像帧对应的质量得分的均值确定每个视频片段的质量得分;
根据各视频片段对应的标签内容和质量得分确定被选取的视频片段。
4.根据权利要求3所述的方法,其特征在于,所述根据各视频片段对应的标签内容和质量得分确定被选取的视频片段,包括:
根据各视频片段对应的标签内容,确定所述各视频片段对应的标签内容与目标视频的匹配值;
根据视频片段对应的质量得分从匹配值超过预设匹配值的视频片段中确定被选取的视频片段。
5.一种视频合成方法,其特征在于,集成权利要求3或4所述的方法确定的被选取的视频片段生成视频。
6.一种视频切分装置,其特征在于,所述装置包括:
抽取单元,用于根据预设的图像帧抽取规则,从待处理的视频中抽取多个图像帧作为待处理的图像帧序列;
第一处理单元,用于将所述图像帧序列输入预设的深度学习模型得到每帧图像的图像特征;所述图像特征用于表示对应图像帧的语义;
第二处理单元,用于根据所述图像帧序列中所有图像帧的图像特征确定特征相似度矩阵,所述特征相似度矩阵用于表示所述图像帧序列中任意两个图像帧的相似度;
第三处理单元,用于利用预设的滤波矩阵对所述特征相似度矩阵进行滑动卷积计算得到边界得分序列;所述滤波矩阵M为m×m的矩阵,m为奇数,所述m小于所述图像帧序列中图像帧的数量,所述M的中间行和中间列对应的元素都为0,所述M的中间行和中间列将所述M划分为左上角、右上角、左下角、右下角四个部分,每个部分为(m-1)/2 ×(m-1)/2的矩阵,所述左上角和右下角对应的矩阵中的元素都是a,右上角和左下角对应的矩阵中的元素都是-a,其中,所述a为正数;
第一确定单元,用于根据所述边界得分序列和预设的边界峰值确定所述视频的切分位置;
切分单元,用于基于所述切分位置对所述视频进行切分。
7.一种视频片段选取装置,其特征在于,包括权利要求6所述的视频切分装置,所述视频切分装置对视频进行切分得到多个视频片段;所述视频片段选取装置还包括:
第二确定单元,用于根据抽取的每帧图像的图像特征确定每帧图像分别对应的标签,所述标签用于表示对应图像帧包括的场景和/或物体;
第三确定单元,用于采用质量分析算法确定所述抽取的每帧图像的质量得分,所述质量得分用于表示图像帧的清晰度;
第四确定单元,用于聚合每个视频片段中所包含的图像帧对应的标签,确定每个视频片段对应的标签内容;
第五确定单元,用于根据每个视频片段中所包含的图像帧对应的质量得分的均值确定每个视频片段的质量得分;
第六确定单元,用于根据各视频片段对应的标签内容和质量得分确定被选取的视频片段。
8.一种视频合成装置,其特征在于,包括权利要求7所述的视频片段选取装置,所述视频合成装置还包括,
集成单元,用于集成所述视频片段选取装置选取的视频片段生成视频。
9.一种电子设备,其特征在于,包括:存储器和一个或多个处理器,所述存储器与所述处理器耦合;其中,所述存储器中存储有计算机程序代码,所述计算机程序代码包括计算机指令,当所述计算机指令被所述处理器执行时,使得所述电子设备执行如权利要求1-5中任一项所述的方法。
10.一种计算机可读存储介质,其特征在于,包括计算机指令,当所述计算机指令在电子设备上运行时,使得所述电子设备执行如权利要求1-5中任一项所述的方法。
CN202310827728.0A 2023-07-07 2023-07-07 视频切分方法、选取方法、合成方法及相关装置 Active CN116546274B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310827728.0A CN116546274B (zh) 2023-07-07 2023-07-07 视频切分方法、选取方法、合成方法及相关装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310827728.0A CN116546274B (zh) 2023-07-07 2023-07-07 视频切分方法、选取方法、合成方法及相关装置

Publications (2)

Publication Number Publication Date
CN116546274A CN116546274A (zh) 2023-08-04
CN116546274B true CN116546274B (zh) 2023-10-20

Family

ID=87444016

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310827728.0A Active CN116546274B (zh) 2023-07-07 2023-07-07 视频切分方法、选取方法、合成方法及相关装置

Country Status (1)

Country Link
CN (1) CN116546274B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111866585A (zh) * 2020-06-22 2020-10-30 北京美摄网络科技有限公司 一种视频处理方法及装置
CN114283351A (zh) * 2021-09-29 2022-04-05 腾讯科技(深圳)有限公司 视频场景分割方法、装置、设备及计算机可读存储介质
CN115115981A (zh) * 2022-06-17 2022-09-27 腾讯科技(深圳)有限公司 数据处理方法、装置、设备、存储介质及计算机程序产品

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11756301B2 (en) * 2020-04-20 2023-09-12 Prime Focus Technologies Limited System and method for automatically detecting and marking logical scenes in media content

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111866585A (zh) * 2020-06-22 2020-10-30 北京美摄网络科技有限公司 一种视频处理方法及装置
CN114283351A (zh) * 2021-09-29 2022-04-05 腾讯科技(深圳)有限公司 视频场景分割方法、装置、设备及计算机可读存储介质
CN115115981A (zh) * 2022-06-17 2022-09-27 腾讯科技(深圳)有限公司 数据处理方法、装置、设备、存储介质及计算机程序产品

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于对角折叠位运算的图像置乱方法;李梦晓;谭永杰;田爱奎;;山东理工大学学报(自然科学版)(02);63-66 *
正规稀疏幻方的存在性;李文;陈克军;苏仁旺;;应用数学学报(06);1118-1135 *

Also Published As

Publication number Publication date
CN116546274A (zh) 2023-08-04

Similar Documents

Publication Publication Date Title
US11113523B2 (en) Method for recognizing a specific object inside an image and electronic device thereof
CN113810587B (zh) 一种图像处理方法及装置
CA3016921A1 (en) System and method for deep learning based hand gesture recognition in first person view
CN113453040B (zh) 短视频的生成方法、装置、相关设备及介质
WO2019105457A1 (zh) 图像处理方法、计算机设备和计算机可读存储介质
CN114866860B (zh) 一种播放视频的方法及电子设备
CN114365198A (zh) 遮挡检测***
CN114926351B (zh) 图像处理方法、电子设备以及计算机存储介质
CN115115679A (zh) 一种图像配准方法及相关设备
CN116433696B (zh) 抠图方法、电子设备及计算机可读存储介质
KR102303206B1 (ko) 전자장치에서 이미지 내의 특정 객체를 인식하기 위한 방법 및 장치
CN116152123B (zh) 图像处理方法、电子设备及可读存储介质
CN116225274A (zh) 触控操作的识别方法、装置、电子设备及存储介质
CN116546274B (zh) 视频切分方法、选取方法、合成方法及相关装置
EP3550817B1 (en) Apparatus and method for associating images from two image streams
CN116095413A (zh) 视频处理方法及电子设备
CN114399622A (zh) 图像处理方法和相关装置
CN116680133B (zh) 一种黑屏检测方法和电子设备
US20240062392A1 (en) Method for determining tracking target and electronic device
CN116826892B (zh) 充电方法、充电装置、电子设备及可读存储介质
WO2022127609A1 (zh) 图像处理方法及电子设备
CN116700554B (zh) 信息的显示方法、电子设备及可读存储介质
WO2022194084A1 (zh) 视频播放方法、终端设备、装置、***及存储介质
CN117135253A (zh) 联系人查找方法、终端设备及存储介质
CN117746762A (zh) 显示处理方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant