CN102184221B - 一种基于用户偏好的实时视频摘要生成方法 - Google Patents

一种基于用户偏好的实时视频摘要生成方法 Download PDF

Info

Publication number
CN102184221B
CN102184221B CN 201110116594 CN201110116594A CN102184221B CN 102184221 B CN102184221 B CN 102184221B CN 201110116594 CN201110116594 CN 201110116594 CN 201110116594 A CN201110116594 A CN 201110116594A CN 102184221 B CN102184221 B CN 102184221B
Authority
CN
China
Prior art keywords
frame
video
frames
value
sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN 201110116594
Other languages
English (en)
Other versions
CN102184221A (zh
Inventor
牛建伟
霍达
童超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhen Rui Beijing Information Technology Co ltd
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN 201110116594 priority Critical patent/CN102184221B/zh
Publication of CN102184221A publication Critical patent/CN102184221A/zh
Application granted granted Critical
Publication of CN102184221B publication Critical patent/CN102184221B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提出了一种基于用户偏好的实时视频摘要生成方法,具体包括:步骤一:计算颜色直方图和像素值联合差异值;步骤二:判断相邻两帧的图像特征是否发生明显变化;步骤三:步骤四:得到潜在视频分段边界;步骤五:设置视频帧序列的关键帧;步骤六:利用最优帧更新关键帧;步骤七:建立高斯混合模型,得到关键帧作为实时视频摘要结果。本发明提出的一种基于用户偏好的实时视频摘要生成方法,建立高斯混合模型学习用户偏好,考虑不同用户对于关键帧的不同需求,优化更新策略,提高用户满意度。

Description

一种基于用户偏好的实时视频摘要生成方法
技术领域
本发明属于图像处理领域,具体涉及一种新型的基于用户偏好的实时视频摘要生成方法。
背景技术
随着移动设备性能的不断提升以及大量的视频分享网站的出现,越来越多的人们选择利用移动设备拍摄视频去与他人分享自己生活中的精彩片段。为了快速的查找和浏览视频片段,人们希望能够对于视频进行标记和摘要。尽管已经有一些工具可以索引和标记视频,例如iMovie,但是这些工具需要大量的,费时的人工参与。同时,当用户正在拍摄视频的同时去进行实时的视频摘要是非常具有挑战性的一项任务。对于用户拍摄的视频而言,由于用户拍摄的视频内容是无规则的,而且视频内容的结构也是没有办法预知的,因此针对这种视频的视频摘要是十分困难的。
这些年来,研究人员提出了许多的针对于家庭视频的视频摘要技术。如Zhai提出了一种利用马尔科夫链的统计学方法将家庭视频分割为不同的逻辑单元。Andreas提出了一种半自动的家庭视频摘要方法,这种方法通过分析家庭视频中所包含的不同类型的运动进行视频分割,然后用户手动的在每个分段中选择关键帧生成视频摘要。Mei提出了一种结合心理学的视频摘要方法,通过分析用户在视频拍摄中的不同意图帮助视频摘要的生成。Saman提出了一种交互的和多级的视频摘要框架,允许用户灵活的选择摘要策略和摘要长度。Takeuchi提出了一种用户自适应的视频摘要***,该***通过自动分析用户电脑上的图片库来获得用户的偏好,根据用户的偏好进行关键帧的提取。
尽管这个领域已经发展的很多年,但是大多数的视频摘要的研究都是针对于已经拍摄完成的视频文件在电脑上进行视频摘要,很少有针对于移动设备的研究。传统的视频摘要面临的最大问题就是如何生成用户最感兴趣的摘要。目前所存在的传统的视频摘要技术的工作方式都是在用户视频拍摄完成后,通过数据线将视频文件传输到电脑上,利用成熟的摘要算法进行视频摘要,之后再将摘要结果展现给用户。这样的操作复杂,用户体验差,效率低,浪费用户大量的时间。于此同时,成熟的摘要算法大部分只关注于已经拍摄完成的视频,用户需要等待视频拍摄完成后,方可进行视频摘要,用户对于这个视频摘要的过程也是完全不可见的,用户并不能参与到整个过程中。
发明内容
针对现有技术中存在的问题,本发明提出了一种基于用户偏好的实时视频摘要生成方法。本发明提出的一种基于用户偏好的实时视频摘要生成方法,建立高斯混合模型学习用户偏好,考虑不同用户对于关键帧的不同需求,优化更新策略,提高用户满意度。
本发明提出的一种基于用户偏好的实时视频摘要生成方法,具体包括以下几个步骤:
步骤一:实时分析当前的视频帧序列S,S={fi|p≤i≤q},其中p和q分别表示视频帧序列S的第一帧和最后一帧,fi表示视频帧序列S中的第i帧;令i=p,从视频帧序列S中的第一帧开始,计算第i帧和第i+1帧的颜色直方图和像素值联合差异值;
步骤二:根据镜头渐变检测理论,设定阈值A,若第i帧和第i+1帧的的颜色直方图和像素值总体差异值大于阈值A,则进入步骤三;否则返回步骤一,并令i为i+1,重新计算第i帧和第i+1帧的颜色直方图和像素值联合差异值,直至获得相邻两帧的图像特征发生明显变化;
步骤三:(1)将视频帧序列S中图像特征发生明显变化的第i帧和第i+1帧之后的视频帧序列S′传送到监测缓存中,j为视频帧序列S′中的任意一帧;
(2)从j=1开始,计算该视频帧序列S′中相邻两帧即第j帧和第j+1帧的颜色直方图和像素值联合差异值;
(3)若该相邻两帧的像素值差异值小于设定阈值B,监测阶段结束,获得的视频帧子序列S″,定义第j+1帧fj+1为潜在视频分段边界,进入步骤四;否则返回步骤一,并令i为i+1,计算第i帧和第i+1帧的颜色直方图和像素值联合差异值;
步骤四:采用菱形运动向量算法,计算步骤三得到的视频帧子序列S″的累计运动向量,计算累计运动向量与视频帧子序列S″中第一帧和最后一帧之间的颜色直方图和像素值联合差异值之积,若该积大于设定阈值C,则潜在的视频分段边界fj+1帧为真实的视频边界;否则返回步骤一,并令i为i+1,重新计算视频帧序列S中第i帧和第i+1帧的颜色直方图和像素值联合差异值;
步骤五:提取fj+1为视频帧序列S的关键帧;
步骤六:将视频帧序列S在fj+1帧之后的所有帧序列进行缓存,得到缓存序列,计算该缓存序列中所有帧的信息富有度、熵值和亮度值,将信息富有度、熵值和亮度值进行归一化,得到均一化值,将最大的均一化值对应的帧作为最优帧,利用最优帧更新关键帧fj+1帧;
步骤七:实时将更新得到的关键帧传输给用户,并实时获得用户选择的关键帧,利用户选择的关键帧建立高斯混合模型
Figure GDA0000073700130000021
分析用户对于关键帧的偏好;其中k是高斯模型组件N(μm,σm)的个数,μm为每个高斯分布的均值和σm为每个高斯分布的方差,N(μm,σm)表示高斯分布;αm是混合概率,Θ是建立的高斯混合模型的参数空间,Rx表示分布函数,k表示高斯混合模型中高斯分布的总个数,m表示其中任意一个高斯分布;
采用期望最大值计算方法,通过高斯混合模型计算得到当前的视频帧序列S中所有的视频帧符合用户偏好的概率,利用符合用户偏好的概率进行关键帧的更新,最终的得到的关键帧。
本发明的优点在于:
(1)本发明提出的一种基于用户偏好的实时视频摘要生成方法,建立高斯混合模型学习用户偏好,考虑不同用户对于关键帧的不同需求,优化更新策略,提高用户满意度。
(2)本发明提出了一种基于用户偏好的实时视频摘要生成方法,实时生成和呈现摘要结果,用户能够观察和控制整个过程,在节省时间的同时带来新颖的用户体验。
(3)本发明提出了一种基于用户偏好的实时视频摘要生成方法,动态更新实时提取的关键帧,保证关键帧的完整性和最优性。
附图说明
图1:本发明提出的一种基于用户偏好的实时视频摘要生成方法的流程图;
图2:本发明提出的一种基于用户偏好的实时视频摘要生成方法的性能检测图。
具体实施方式
下面将结合附图对本发明作进一步的详细说明。
本发明提出的一种基于用户偏好的实时视频摘要生成方法,如图1所示,具体包括以下几个步骤:
步骤一:实时分析当前的视频帧序列S,S={fi|p≤i≤q},其中p和q分别表示视频帧序列S的第一帧和最后一帧,fi表示视频帧序列S中的第i帧。分析当前视频序列中相邻第i帧和第i+1帧的图像特征,图像特征包括颜色直方图和像素值,令i=p,从视频帧序列S中的第一帧开始,计算第i帧和第i+1帧的颜色直方图和像素值联合差异值TDiffi
其中所述的颜色直方图和像素值联合差异值TDiffi的具体的计算过程为:
(1)第i帧和第i+1帧的颜色直方图差异采用分块方法进行计算,将第i帧和第i+1帧分为M×N块,第i帧和第i+1帧的之间的第k分块的颜色直方图差异HBDiff(fi,k,fi+1,k)为:
HBDiff ( f i , k , f i + 1 , k ) = Σ r = 0 255 | b i , k ( r ) - b i + 1 , k ( r ) | - - - ( 1 )
其中fi,k表示第i帧的第k分块,fi+1,k表示第i+1帧的第k分块,bi,k(r)表示第i帧的第k分块的色调值等于r的像素点的个数,bi+1,k(r)表示第i+1帧的第k分块的色调值等于r的像素点的个数,因此相邻两帧第i帧和第i+1帧的颜色直方图差异HDiff(fi,fi+1)为:
HDiff ( f i , f i + 1 ) = Σ k = 1 M × N HBDiff ( k ) - - - ( 2 )
其中fi表示第i帧,fi+1表示第i+1帧。
(2)按照公式(3)计算相邻两帧第i帧和第i+1帧的像素值差异PDiff(fi,fi+1):
PDiff ( f i , f i + 1 ) = Σ x = 1 , y = 1 w , h | P i ( x , y ) - P i + 1 ( x , y ) | - - - ( 3 )
其中,Pi+1(x,y)表示第i+1帧的像素值,Pi(x,y)表示第i帧像素值,(x,y)表示像素点的坐标,w表示视频帧的宽度,h表示视频帧的高度。
(3)根据公式(2)和(3),得到第i帧和第i+1帧的颜色直方图和像素值联合差异值TDiffi为:
TDiffi=HDiff(fi-1,fi)×PDiff(fi-1,fi)    (4)
步骤二:根据镜头渐变检测理论,设定阈值A,阈值A优选为10~40,进一步优选为25.8,如果第i帧和第i+1帧的的颜色直方图和像素值总体差异值大于阈值A,说明该相邻两帧第i帧和第i+1帧的图像特征发生明显变化,执行步骤三;否则返回步骤一,并令i=i+1,重新计算第i帧和第i+1帧的颜色直方图和像素值联合差异值,直至获得相邻两帧的图像特征发生明显变化。
步骤三:(1)将视频帧序列S中图像特征发生明显变化的第i帧和第i+1帧之后的视频帧序列S′传送到监测缓存中,该视频帧序列S′具有有连续的N帧,其中N是大于1的自然数,该视频帧序列S′中的第一帧为原视频帧序列S中的第i+2帧,最后一帧为原视频帧序列S中的的最后一帧即第q帧,j为视频帧序列S′中的任意一帧。
(2)从j=1开始,计算该视频帧序列S′中相邻两帧即第j帧和第j+1帧的颜色直方图和像素值联合差异值TDiffj
(3)若该相邻两帧的像素值差异值HDiff小于设定阈值B,阈值B满足0<B≤10,优选为5≤B≤8,监测阶段结束,获得的视频帧子序列S″,视频帧子序列S″由视频帧序列S′中的第一帧至相邻两帧的像素值差异值HDiff小于设定阈值B的第j+1帧组成,定义第j+1帧fj+1为潜在视频分段边界,进入步骤四;否则返回步骤一,令i=i+1,计算第i帧和第i+1帧的颜色直方图和像素值联合差异值;
步骤四:采用菱形运动向量算法,计算步骤三得到的视频帧子序列S″的累计运动向量,按照公式(5)计算累计运动向量与视频帧子序列S″中第一帧和最后一帧之间的颜色直方图和像素值联合差异值TDiff(fi+1,fj+1)之积,若该积大于设定阈值C,阈值C优选为100≤C≤200,则潜在的视频分段边界fj+1帧为真实的视频边界;否则返回步骤一,令i=i+1,计算视频帧序列S中第i帧和第i+1帧的颜色直方图和像素值联合差异值;
Σ m = i + 1 j + 1 MV m × TDiff ( f i + 1 , f j + 1 ) > C - - - ( 5 )
其中
Figure GDA0000073700130000042
代表视频帧子序列S″的累计运动向量。
步骤五:提取fj+1为视频帧序列S的关键帧。
步骤六:将视频帧序列S在fj+1帧之后的所有帧序列进行缓存,得到缓存序列,计算该缓存序列中所有帧的信息富有程度、熵值和亮度值,计算得到缓存序列中的最优帧。
所述的信息富有程度Gu计算公式为:
Gu=IEMu(W ,H)    (6)
其中,W代表视频帧的宽度,H代表视频帧的长度,IEMu表示信息富有程度函数。
所述的熵值Eu的计算公式为:
E u = - Σ x = 0 255 p u ( x ) log ( p u ( x ) ) - - - ( 7 )
pu(x)表示帧中第x个像素点的像素值。
所述的亮度值Lu的计算公式为:
L u = g ( Σ x = 1 , y = 1 W , H P u ( x , y ) W × H ) - - - ( 8 )
其中Pu(x,y)表示第i帧的像素值。
将信息富有程度、熵值和亮度值进行归一化,得到均一化值Su,均一化的方法为:
S u = a 1 G u + a 2 E u + a 3 L u a 1 + a 2 + a 3 = 1 - - - ( 9 )
其中,a1、a2、a3为均一化系数,将最大的均一化值对应的帧作为最优帧,利用最优帧更新关键帧fj+1帧。
步骤七:实时将更新得到的关键帧传输给用户,并实时获得用户选择的关键帧,利用户选择的关键帧建立高斯混合模型如公式(10),分析用户对于关键帧的偏好:
R X ( x | Θ ) = Σ m = 1 k α m N ( μ m , σ m ) - - - ( 10 )
其中k是高斯模型组件N(μm,σm)的个数,μm为每个高斯分布的均值和σm为每个高斯分布的方差,N(μm,σm)表示高斯分布;αm是混合概率,Θ是建立的高斯混合模型的参数空间,RX表示分布函数,k表示高斯混合模型中高斯分布的总个数,m表示其中任意一个高斯分布。
采用传统的期望最大值计算方法,通过公式(10)计算得到当前的视频帧序列S中所有的视频帧符合用户偏好的概率,利用符合用户偏好的概率进行关键帧的更新,最终的得到的关键帧即为本发明中实时视频摘要结果。
应用本发明提出的一种基于用户偏好的实时视频摘要生成方法,已经采用了NokiaSymbian 3的SDK,并在诺基亚N8手机上实现了原型***,选择15名学生参与本次实验,他们分别被要求使用原型***拍摄15分钟长度的视频去介绍自己的校园,要求他们在拍摄的过程中要记录自己感兴趣的关键点,分别使用含有用户偏好学习功能的原型***和不包含用户偏好学习功能的原型***进行拍摄。如图2所示,横坐标表示参加测试的15名用户,纵坐标表示关键点的个数,三条曲线分别为用户在拍摄过程中选择的关键点个数、包含本发明提出的用户偏好的实时视频的原型***最终选择出来的关键点与用户自主选择的关键点的重合个数、不包含用户偏好的实时视频的原型***最终选择出来的关键点与用户自主选择的关键点的重合个数。从图2可以看出,包含用户偏好的实时视频的原型***提取出的关键点的重合度要大于不包含用户偏好的实时视频的原型***,因此本发明提出的基于用户偏好学习的实时视频摘要***提取出的关键帧可以更好反应用户偏好和兴趣点。

Claims (5)

1.一种基于用户偏好的实时视频摘要生成方法,其特征在于:具体包括以下几个步骤:
步骤一:实时分析当前的视频帧序列S,S={fi|p≤i≤q},其中p和q分别表示视频帧序列S的第一帧和最后一帧,fi表示视频帧序列S中的第i帧;令i=p,从视频帧序列S中的第一帧开始,计算第i帧和第i+1帧的颜色直方图和像素值联合差异值;
计算第i帧和第i+1帧的颜色直方图和像素值联合差异值的具体过程为:
(1)第i帧和第i+1帧的颜色直方图差异采用分块方法进行计算,将第i帧和第i+1帧分为M×N块,第i帧和第i+1帧的之间的第k分块的颜色直方图差异HBDiff(fi,k,fi+1,k)为:
HBDiff ( f i , k , f i + 1 , k ) = Σ r = 0 255 | b i , k ( r ) - b i + 1 , k ( r ) |
其中fi,k表示第i帧的第k分块,fi+1,k表示第i+1帧的第k分块,bi,k(r)表示第i帧的第k分块的色调值等于r的像素点的个数,bi+1,k(r)表示第i+1帧的第k分块的色调值等于r的像素点的个数,因此相邻两帧第i帧和第i+1帧的颜色直方图差异HDiff(fi,fi+1)为:
HDiff ( f i , f i + 1 ) = Σ k = 1 M × N HBDiff ( f i , k , f i + 1 , k )
其中fi表示第i帧,fi+1表示第i+1帧;
(2)计算相邻两帧第i帧和第i+1帧的像素值差异PDiff(fi,fi+1):
PDiff ( f i , f i + 1 ) = Σ x = 1 , y = 1 W , H | P i ( x , y ) - P i + 1 ( x , y ) |
其中,Pi+1(x,y)表示第i+1帧的像素值,Pi(x,y)表示第i帧像素值,(x,y)表示像素点的坐标,W表示视频帧的宽度,H表示视频帧的高度;
(3)计算第i帧和第i+1帧的颜色直方图和像素值联合差异值TDiffi为:
TD iff i = HDiff ( f i - 1 , f i ) × PDiff ( f i - 1 , f i )
步骤二:根据镜头渐变检测理论,设定阈值A,若第i帧和第i+1帧的的颜色直方图和像素值总体差异值大于阈值A,则进入步骤三;否则返回步骤一,并令i为i+1,重新计算第i帧和第i+1帧的颜色直方图和像素值联合差异值,直至获得相邻两帧的图像特征发生明显变化;
步骤三:(1)将视频帧序列S中图像特征发生明显变化的第i帧和第i+1帧之后的视频帧序列S′传送到监测缓存中,j为视频帧序列S′中的任意一帧;
(2)从j=1开始,计算该视频帧序列S′中相邻两帧即第j帧和第j+1帧的颜色直方图和像素值联合差异值;
(3)若该相邻两帧的像素值差异值小于设定阈值B,监测阶段结束,获得的视频帧子序列S″,视频帧子序列S″由视频帧序列S′中的第一帧至相邻两帧的像素值差异值HDiff小于设定阈值B的第j+1帧组成,定义第j+1帧fj+1为潜在视频分段边界,进入步骤四;否则返回步骤一,并令i为i+1,计算第i帧和第i+1帧的颜色直方图和像素值联合差异值;
步骤四:采用菱形运动向量算法,计算步骤三得到的视频帧子序列S″的累计运动向量,计算累计运动向量与视频帧子序列S″中第一帧和最后一帧之间的颜色直方图和像素值联合差异值之积,若该积大于设定阈值C,则潜在的视频分段边界fj+1帧为真实的视频边界;否则返回步骤一,并令i为i+1,重新计算视频帧序列S中第i帧和第i+1帧的颜色直方图和像素值联合差异值;
步骤五:提取fj+1为视频帧序列S的关键帧;
步骤六:将视频帧序列S在fj+1帧之后的所有帧序列进行缓存,得到缓存序列,计算该缓存序列中所有帧的图像特征,将图像特征进行归一化,得到均一化值,将最大的均一化值对应的帧作为最优帧,利用最优帧更新关键帧fj+1帧;
步骤七:实时将更新得到的关键帧传输给用户,并实时获得用户选择的关键帧,利用户选择的关键帧建立高斯混合模型分析用户对于关键帧的偏好;其中k是高斯模型组件N(μmm)的个数,μm为每个高斯分布的均值和σm为每个高斯分布的方差,N(μmm)表示高斯分布;αm是混合概率,Θ是建立的高斯混合模型的参数空间,RX表示分布函数,m表示其中任意一个高斯分布;
采用期望最大值计算方法,通过高斯混合模型计算得到当前的视频帧序列S中所有的视频帧符合用户偏好的概率,利用符合用户偏好的概率进行关键帧的更新,最终的得到的关键帧。
2.根据权利要求1所述的一种基于用户偏好的实时视频摘要生成方法,其特征在于:所述的步骤二中的阈值A为10~40。
3.根据权利要求1所述的一种基于用户偏好的实时视频摘要生成方法,其特征在于:所述的步骤三中的阈值B满足0<B≤10。
4.根据权利要求3所述的一种基于用户偏好的实时视频摘要生成方法,其特征在于:所述的步骤三中的阈值B满足5≤B≤8。
5.根据权利要求1所述的一种基于用户偏好的实时视频摘要生成方法,其特征在于:所述的步骤四中的阈值C满足100≤C≤200。
CN 201110116594 2011-05-06 2011-05-06 一种基于用户偏好的实时视频摘要生成方法 Expired - Fee Related CN102184221B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 201110116594 CN102184221B (zh) 2011-05-06 2011-05-06 一种基于用户偏好的实时视频摘要生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 201110116594 CN102184221B (zh) 2011-05-06 2011-05-06 一种基于用户偏好的实时视频摘要生成方法

Publications (2)

Publication Number Publication Date
CN102184221A CN102184221A (zh) 2011-09-14
CN102184221B true CN102184221B (zh) 2012-12-19

Family

ID=44570398

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 201110116594 Expired - Fee Related CN102184221B (zh) 2011-05-06 2011-05-06 一种基于用户偏好的实时视频摘要生成方法

Country Status (1)

Country Link
CN (1) CN102184221B (zh)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103093458B (zh) * 2012-12-31 2015-11-25 清华大学 关键帧的检测方法及装置
CN103345764B (zh) * 2013-07-12 2016-02-10 西安电子科技大学 一种基于对象内容的双层监控视频摘要生成方法
US9639762B2 (en) * 2014-09-04 2017-05-02 Intel Corporation Real time video summarization
US10433030B2 (en) 2014-10-09 2019-10-01 Thuuz, Inc. Generating a customized highlight sequence depicting multiple events
US10536758B2 (en) 2014-10-09 2020-01-14 Thuuz, Inc. Customized generation of highlight show with narrative component
KR102340196B1 (ko) * 2014-10-16 2021-12-16 삼성전자주식회사 동영상 처리 장치 및 방법
US9544615B2 (en) * 2014-11-14 2017-01-10 Sony Corporation Method and system for processing video content
US20160191945A1 (en) * 2014-12-24 2016-06-30 Sony Corporation Method and system for processing video content
CN105306960B (zh) * 2015-10-18 2018-05-04 北京航空航天大学 一种用于传输高质量在线课程视频的动态自适应流***
CN106227759B (zh) * 2016-07-14 2019-09-13 中用科技有限公司 一种动态生成视频摘要的方法及装置
CN106776860A (zh) * 2016-11-28 2017-05-31 北京三快在线科技有限公司 一种搜索摘要生成方法及装置
CN106713964A (zh) * 2016-12-05 2017-05-24 乐视控股(北京)有限公司 一种生成视频摘要视点图的方法及装置
CN106686403B (zh) * 2016-12-07 2019-03-08 腾讯科技(深圳)有限公司 一种视频预览图生成方法、装置、服务器以及***
CN106888407B (zh) * 2017-03-28 2019-04-02 腾讯科技(深圳)有限公司 一种视频摘要生成方法及装置
CN107729809B (zh) * 2017-09-11 2021-06-08 汕头大学 一种自适应生成视频摘要的方法、装置及其可读存储介质
CN110198467A (zh) * 2018-02-27 2019-09-03 优酷网络技术(北京)有限公司 视频播放方法及装置
CN110366050A (zh) * 2018-04-10 2019-10-22 北京搜狗科技发展有限公司 视频数据的处理方法、装置、电子设备及存储介质
CN109257645B (zh) * 2018-09-11 2021-11-02 阿里巴巴(中国)有限公司 视频封面生成方法及装置
CN109525901B (zh) 2018-11-27 2020-08-25 Oppo广东移动通信有限公司 视频处理方法、装置、电子设备及计算机可读介质
CN110418191A (zh) * 2019-06-24 2019-11-05 华为技术有限公司 一种短视频的生成方法及装置
CN110418156A (zh) * 2019-08-27 2019-11-05 上海掌门科技有限公司 信息处理方法和装置
CN111031390B (zh) * 2019-12-17 2022-10-21 南京航空航天大学 一种输出大小固定序列行列式点过程视频概要方法
CN111405293B (zh) * 2020-03-20 2022-05-03 北京达佳互联信息技术有限公司 一种视频传输方法及装置
CN114697764B (zh) * 2022-06-01 2022-09-02 深圳比特微电子科技有限公司 一种生成视频摘要的方法、装置和可读存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101013444A (zh) * 2007-02-13 2007-08-08 华为技术有限公司 一种自适应生成足球视频摘要的方法和装置
CN101072305A (zh) * 2007-06-08 2007-11-14 华为技术有限公司 镜头分类方法、场景提取方法、摘要生成方法及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6963378B2 (en) * 2002-11-01 2005-11-08 Motorola, Inc. Method and apparatus for reduction of visual content

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101013444A (zh) * 2007-02-13 2007-08-08 华为技术有限公司 一种自适应生成足球视频摘要的方法和装置
CN101072305A (zh) * 2007-06-08 2007-11-14 华为技术有限公司 镜头分类方法、场景提取方法、摘要生成方法及装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
一种新的镜头边界检测和静态视频摘要提取方法;卜庆凯等;《东南大学学报(自然科学版)》;20070731;第37卷(第4期);559-565 *
卜庆凯等.一种新的镜头边界检测和静态视频摘要提取方法.《东南大学学报(自然科学版)》.2007,第37卷(第4期),

Also Published As

Publication number Publication date
CN102184221A (zh) 2011-09-14

Similar Documents

Publication Publication Date Title
CN102184221B (zh) 一种基于用户偏好的实时视频摘要生成方法
CN110364144A (zh) 一种语音识别模型训练方法及装置
CN111026914B (zh) 视频摘要模型的训练方法、视频摘要生成方法及装置
CN109145766A (zh) 模型训练方法、装置、识别方法、电子设备及存储介质
CN110222722A (zh) 交互式图像风格化处理方法、***、计算设备及存储介质
CN103984959A (zh) 一种基于数据与任务驱动的图像分类方法
CN101819638B (zh) 色情检测模型建立方法和色情检测方法
CN106778852A (zh) 一种修正误判的图像内容识别方法
CN112990390B (zh) 一种图像识别模型的训练方法、图像识别的方法及装置
CN102612707A (zh) 用于创建教育视频的概要表示的***
CN110163954A (zh) 三维户型模型生成方法、装置、设备及存储介质
CN101470809A (zh) 一种基于扩展混合高斯模型的运动目标检测方法
CN103299342A (zh) 提供用于姿势识别的机制的方法和装置
CN104680193A (zh) 基于快速相似性网络融合算法的在线目标分类方法与***
CN107194948A (zh) 基于集成式预测与时空域传播的视频显著性检测方法
CN111507467A (zh) 神经网络模型的训练方法、装置、计算机设备及存储介质
CN112818958B (zh) 动作识别方法、装置及存储介质
CN107295214A (zh) 插值帧定位方法及装置
CN116433920A (zh) 一种基于深度特征引导的图像生成方法、装置及存储介质
CN110796150B (zh) 一种基于情感显著性区域检测的图片情感识别方法
CN112101387A (zh) 显著性元素识别方法及装置
CN111722717A (zh) 手势识别方法、装置及计算机可读存储介质
CN111539420A (zh) 基于注意力感知特征的全景图像显著性预测方法及***
CN114782738B (zh) 联邦学习安全检测方法、装置、电子设备及可读存储介质
CN104063591B (zh) 统一模型非库属目标一维距离像判别方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C41 Transfer of patent application or patent right or utility model
TR01 Transfer of patent right

Effective date of registration: 20161124

Address after: North Fourth Ring Road 100191 Beijing City No. 238 Haidian District Bai Yan building 501C

Patentee after: Zhen Rui (Beijing) Information Technology Co.,Ltd.

Address before: 100191 Haidian District, Xueyuan Road, No. 37,

Patentee before: Beihang University

CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20121219

CF01 Termination of patent right due to non-payment of annual fee