CN103150373A - 一种高满意度视频摘要生成方法 - Google Patents
一种高满意度视频摘要生成方法 Download PDFInfo
- Publication number
- CN103150373A CN103150373A CN2013100751468A CN201310075146A CN103150373A CN 103150373 A CN103150373 A CN 103150373A CN 2013100751468 A CN2013100751468 A CN 2013100751468A CN 201310075146 A CN201310075146 A CN 201310075146A CN 103150373 A CN103150373 A CN 103150373A
- Authority
- CN
- China
- Prior art keywords
- frame
- camera lens
- video
- lens group
- calculate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
本发明涉及一种高满意度视频摘要生成方法。本发明基于视频数据结构的特点,设计、实现了一种基于镜头聚类的视频摘要***,该***主要功能包括:多类型视频文件的编解码和播放,镜头边界检测,关键帧提取,镜头聚类,静态视频摘要,用户输入时间动态摘要的生成等。本发明适合多媒体文件管理、视频检索、影视库建设等应用场合。
Description
技术领域
本发明涉及一种高满意度视频摘要生成方法,属于多媒体信息处理领域,具体来说,属于视频信息处理领域。
背景技术
随着数字视频资源数量的迅速增加,表示、理解和提取视频结构来提供视频内容浏览和检索服务变得十分重要。其中,基于内容的视频分析技术就是其主要任务。基于内容的视频分析是指使用计算机对包含图像和声音的视频数据进行语义上的分析和理解。它的快速发展产生了很多新的相关技术研究成果和应用。在这些新兴的研究领域中,有一些应用和研究针对的问题是如何利用对视频内容的分析来减小视频存储、分类和索引的代价,以及如何提高视频的使用效率,可用性和可访问性。这就是视频摘要技术。
视频摘要技术是以自动或半自动的方式对视频的结构和内容进行分析,从原视频中提取出有意义的部分,并将它们以某种方式进行组合,形成简洁的能够充分表现视频语义内容的概要。它是对长视频内容的简短总结,通常用一段静态或者动态的图像序列来表示,并对原始信息予以保留[2]。因此它可以提供给人们一个有关原始视频基本内容的较为精练的信息,其内容可以概括原始视频的主要内容,但其长度却要比原始视频短得多。
目前视频摘要的生成方法大致可以分为四类:
1.简单的生成方法。主要有两种。一是基于时间对视频进行采样,即每隔一段时间抽取一个代表帧或者一个片段;二是快速回放的方法,通过加快帧率达到缩短播放时间的目的。这两种方法比较简单,但完全没有基于视频的内容,效果很不可靠。
2.基于视觉信息的生成方法。根据视频中颜色、纹理、形状、运动方向和强度等视觉信息,应用各种视频和图像处理技术,进行镜头探测、关键帧提取、场景聚类、运动特征提取等一系列操作,最终生成具有代表性的关键帧序列或缩略视频。这种算法完全基于视觉特征,而忽略了音频、字幕等信息对表现视频所起的作用。美国Palo Alto实验室生成的故事板(漫画书)的研究是其中的典型代表。
3.融合多特征的生成方法。该方法在基于视觉方法的基础上融入其它媒体提供的信息,来更准确的判断视频片段的重要程度。例如,采用人脸识别技术来探测新闻中重要人物的出现,采用音频处理技术来探测体育视频中的精彩片段等等。这种算法是目前研究的热点,当前大多数视频摘要方法都是基于这种思想的。
4.基于视频句法语义的生成方法。该方法不追求用模式识别技术获取视频中的数据语义,而是从视频的句法结构分析入手,探寻镜头与镜头之间、场景与场景之间的结构规则,从中分析出编导人员试图借此表现的情感和氛围,并以此为基础,将视频的句法语义尽可能完整地保存到摘要当中。这种方法的典型代表是Columbia大学Harri等人提出的基于句法语义的效用模型。这是一种新的思路,在视频模式识别技术还远远不够完善的今天,这种方法不失为生成视频摘要的一个新途径。
总的来说,视频摘要生成问题是十分复杂的,如果真正做到对环境不加任何限制,要想实现既实时快速又稳定高效的摘要生成***是非常困难的。摘要生成技术研究比较早,从现有资料来看,还存在许多问题,没有一个实现稳定实时的实际***,特别是从用户满意度的角度来看,满意度不足,仍是各种方法普遍存在的问题。
发明内容
本发明的目标是:实现一种基于镜头聚类的视频摘要***,该***主要功能包括:多类型视频文件的编解码和播放,镜头边界检测,关键帧提取,镜头聚类,静态视频摘要,用户输入时间动态摘要的生成等。
本发明的技术方案是通过如下步骤实现的:
(1)检测镜头;(2)提取每个镜头的关键帧;(3)将所有镜头按照视觉相似性分组;(4)从镜头组中提取代表帧作为静态摘要;(5)在前3步基础上,首先确定各镜头组的重要程度,再为重要程度高的镜头组分配更多的帧数,最终使用从个镜头组选取的视频帧生成摘要视频,整体过程如图1所示。
上述处理流程的具体步骤为:
步骤1,检测镜头,整体流程如图2所示,具体步骤为:
步骤1.1图像预处理。即对图像进行中值滤波预处理,提高检测的准确度。
步骤1.2闪光检测。采用基于亮度帧差的方法,整体过程如图2所示,具体方法如下:
(1)在一个窗口中取16帧图像,计算得到15个相邻帧间的亮度帧间差;
(2)计算这15个帧间亮度差值的平均值,记为VDiff_av15;
(3)获取闪光检测的阈值,T_flush=σ×VDiff_av15,选取σ=5.5;
(4)依次比较帧间差与T_flush的大小;定义当前帧差为第n帧和第n+1帧的帧间差,若当前帧差大于T_flush,且下一相邻帧差也大于T_flush,则判定第n+1帧处有闪光发生;否则,没有闪光发生。
步骤1.3切变检测。采用亮度帧差作为切变检测特征,具体过程描述如下:
(1)在一个窗口中计算得到15个相邻帧间的亮度帧间差;
(2)计算这15个帧间亮度差值的平均值VDiff_15av;
(3)计算15个亮度帧差到该视频段亮度帧差均值VDiff_15av的距离VDist(i);
(4)计算切变检测的高阈值(Th_shot)和低阈值(Tl_shot);
(5)依次比较当前相邻帧差与该视频段亮度帧差均值VDiff_15av,同时比较各VDist(i)与切变的高阈值Th_shot和低阈值Tl_shot,若满足判定条件,则发生切变,否则,移窗,转(1)。
所述切变的判别条件为:
(1)视频段中第j个亮度帧差大于该视频段亮度帧差均值,且第j-1和第j+1个亮度帧差小于均值;
(2)视频段中第j个亮度帧差到该视频段亮度帧差均值距离大于高阈值,且第j-1和第j+1个亮度帧差到均值距离小于低阈值。
同时满足上述两个条件,则认为第j-1与第j帧之间发生了切变。
步骤1.4渐变检测
渐变检测以步骤1.3切变检测的结果为基础,对连续两次切变之间的视频帧序列进行渐变检测。具体过程描述如下:
(1)取两个切变镜头之间的所有帧,计算相邻帧间的颜色帧差;
(2)统计该视频段中颜色帧差的数量级直方图,以直方图最大的颜色帧差数量级为基准值,对颜色帧差进行0、1量化;
(3)对量化结果进行平滑,剔除毛刺;
(4)根据判定依据确定渐变段、渐变起始帧号和终止帧号。
渐变检测是在完成切变检测后,依据切变检测结果,依次读取相邻两次切变之间的视频帧序列进行渐变检测,直到源视频帧序列的末尾。
步骤2,在步骤1的基础上,提取每个镜头的关键帧。整体流程如图3所示,具体过程如下:
步骤2.1按时间将镜头分为子镜头,具体描述如下:
(1)计算镜头内所有相邻帧间的颜色直方图距离的均值av_CDiff,公式如下。
上式中,b为调节指数;
(2)计算所有相邻帧间颜色直方图距离到均值的距离之和(记为DistSum),取平均,记为av_DistSum;
(3)按照下式计算阈值:
T=av_CDiff+av_DistSum×β
其中,β为微调参数。
(4)记nShotStart=镜头起始帧号,nShotEnd=镜头终止帧号;
(5)记nFrom=nShotStart作为基准帧;
(6)从i=nShotStart+1帧开始,计算后续各帧与基准帧之间的颜色直方图差值CDiff(nFrom,i),并与阈值T比较;
●若CDiff(nFrom,i)>T,且i!=nShotEnd,提取nFrom与i-1帧之间最接近该段所有帧图像颜色直方图均值的图像作为关键帧,并重置基准帧nFrom=i,继续关键帧提取,直到i=nShotEnd;
●若i==nShotEnd,提取nFrom与i帧之间最接近该段所有帧图像颜色直方图均值的图像作为关键帧。
步骤2.2子镜头关键帧集合聚类,具体方法描述如下:
(1)将上一步获取的关键帧集合中的所有关键帧各分一类;
(2)通过距离均值确定两个关键帧类的距离,寻找距离最近的两个关键帧类,记距离mindiff;
(3)若mindiff≤T+α,则合并两个关键帧类,将类号大的归入到类号小的类中。转到(2);否则mindiff>T+α,两类间的最小距离大于阈值,则退出。α为微调参数。
步骤3,在步骤2的基础上,将所有镜头按照视觉相似性分组,整体流程如图4所示,具体过程如下:
步骤3.1,使用层次聚类确定初始分类
(1)计算视频内两两镜头相似度的均值av_Sim,公式如下;
其中,nShotSum为视频内的镜头总数。
(2)根据下式计算阈值;
(3)将所有镜头各分一类;
(4)对所有镜头进行循环:
●找到最相似的两镜头类i,j,设相似度为maxsim;
●若maxsim≥T,则合并i,j,将类号大的归入到类号小的类中。否则maxsim<T,两类间的最大相似度小于阈值,则退出循环。
步骤3.2,使用K均值聚类重定位结果,具体步骤为:
(1)将层次聚类的输出作为K均值聚类的初始分类;
(2)对所有镜头进行循环:
●对任意一个镜头,通过计算该镜头与类中各镜头相似度的均值确定它与各镜头类的相似度;
●若该镜头和某类的相似度大于它与自身类的相似度,则将它重定位到相似度较大的类中;
(3)判断在循环中是否有镜头类号发生变化,若有,转到(2),否则在该次循环中所有镜头类号均没有变化,则退出循环。
步骤4,在步骤3的基础上,生成静态摘要。
步骤3通过镜头聚类把所有镜头聚合成了多个镜头组,从每个镜头组的关键帧集合中提取一帧作为代表帧;再集合所有代表帧,就可以得到静态视频摘要。
所述镜头组代表帧的计算方法为:依次计算关键帧集合中每个元素与其余各元素的相似度之和,该值最大的关键帧即为本镜头组的代表帧。
步骤5,在步骤3的基础上,生成动态摘要。整体流程如图5所示,具体步骤如下:
步骤5.1,剔除贡献度较小的镜头组
确定各镜头组权重之前,先剔除那些对反映内容贡献很小的镜头组,算法如下:
(1)计算每个镜头组包含的图像帧总数Fi;
(2)计算阈值
其中,SnFrame为视频包含图像帧数,SnShot为视频包含镜头数,β为调节因子,取β=2;
(3)若Fi<Tw,则该镜头组为无用镜头组。
步骤5.2,确定镜头组的权重
镜头组权重的计算原则是:镜头组的时间越长,包含的内容越丰富,权重就越大。具体算法为:
(1)计算各镜头组包含的图像帧总数Fi。
(2)计算各镜头组关键帧集合的主色直方图的平均值:
其中,SnKeyFrame为镜头组包含的关键帧总数,Hk(i)为第k个关键帧的主颜色直方图。
(3)若SnKeyFrame>1,通过公式(6)计算每个镜头组的关键帧集合的主颜色直方图差异度Si,否则Si为所有SnKeyFrame>1的镜头组Si的最小值:
其中,D(k)为第k个关键帧的主颜色直方图与主颜色直方图均值的距离。
(4)计算镜头组的重要度:Ii=Si×Fi
(5)计算所有镜头组重要度总和:
步骤5.3,动态摘要生成
设s为用户指定的摘要时长与原始视频时长的比值,则具体生成算法描述如下:
(1)计算摘要视频所需图像帧数:
SnSCFrame=SnFrame×s
(2)获取有用镜头组集合及各镜头组在摘要视频中所占权重Wi;
(3)对于各有用镜头组,根据镜头组权重计算镜头组所需图像帧数:
FSi=SnSCFrame×Wi;
(4)提取各镜头组中的视频帧:
●提取质心镜头:若FSi>FnCenter,提取质心镜头全部帧,令FSi=FSi-FnCenter;否则提取质心镜头的前FSi帧,跳到(5);
●提取首镜头:若FSi>FnFirst,提取首镜头全部帧,令FSi=FSi-FnFirst;否则提取首镜头的前FSi帧,跳到(5);
●提取尾镜头:若FSi>FnEnd,提取尾镜头全部帧,令FSi=FSi-FnEnd;否则提取尾镜头的前FSi帧,跳到(5);
●计算剩余镜头与质心镜头、首镜头与尾镜头的距离,按照从小到大排序;
(5)按照排序依次保留各镜头的前36帧(不足的保留全部帧),直到总帧数达到FSi为止。
有益效果
本发明提出的镜头边界检测算法改善了渐变检测的性能,在镜头检测的准确性和全面性方面优势更加突出。
本发明提出的基于子镜头聚类的关键帧提取算法,在保证了关键帧提取的低漏选率的同时,又做到了关键帧提取的低错误率和低冗余率要求。
本发明提出的基于镜头间相似度的镜头聚类算法,利用帧间主颜色直方图特征计算帧间相似度,使用层次聚类确定初始分类,使用K均值聚类重定位结果,具有较高的聚类准确率。
本发明设计、实现的视频静、动态摘要***,实现了视频编解码、视频播放、视频镜头边界检测、关键帧提取、镜头聚类、静态摘要生成、用户输入时间动态摘要生成等功能,具有更高的准确率,具有较高的实用价值。
附图说明
图1为本发明的原理框图;
图2为本发明提出的镜头边界检测流程图;
图3为本发明提出的关键帧提取原理图;
图4为本发明的镜头分组原理图;
图5为本发明提出的动态摘要生成原理图。
具体实施方式
为了更好的说明本发明的目的和优点,下面采用镜头节奏不等的五个MTV视频(三个中国,两个欧美)作为数据源(各MTV详细信息如下表1所示),对本发明方法的实施方式做进一步详细说明。
表1实施例数据源信息
以下所有测试均在同一台计算机上完成,具体配置为:Intel双核CPU(主频1.8G),1G内存,WindowsXP SP3操作***。
静态摘要的目的是为了表现视频中所有镜头组的信息,所以本文采用镜头组的查全率和查准率作为静态摘要的评价指标。
对于动态摘要,本文通过给出在一系列特定摘要压缩比(SummaryCompression Ratio,SCR)下的用户满意度(User Satisfaction,US)来评价***。SCR为摘要视频帧数占原视频帧数的比例,US是一个0–10之间的数值,它是浏览者综合考虑动态摘要反映原始视频主要内容的程度、动态摘要的可理解程度和可观赏度给出的评分。
同时,采用提取用时对***的时间效率进行评价。提取用时是利用视频摘要***提取一个MTV视频的静态摘要和动态摘要所需时间。
采纳23名学生的评分进行终统计,为了减少评估者评测的主观性和随意性,评测前首先告诉评估者评测的次序:先观看原始视频,再浏览动态摘要。具体步骤描述如下:
(1)利用MTV视频摘要***处理数据源中的一个视频,生成静态摘要和摘要压缩比为2-9的动态摘要;
(2)计算镜头组的查全率和查准率;
(3)评估者依次给出各个压缩比下的动态摘要的用户满意度;
(4)取均值,获取各个压缩比下的动态摘要的平均用户满意度;
(5)记录视频静&动态视频摘要提取用时;
(6)对数据源的其它视频依次重复步骤(1)-(5);
(7)计算镜头组平均查全率、查准率。
上述步骤中,每个MTV视频的静态摘要、动态摘要的生成步骤为:
步骤1,检测镜头,整体流程如图2所示,具体步骤为:
步骤1.1图像预处理。即对图像进行中值滤波预处理,提高检测的准确度。
步骤1.2闪光检测。采用基于亮度帧差的方法,整体过程如图2所示,具体方法如下:
(1)在一个窗口中取16帧图像,计算得到15个相邻帧间的亮度帧间差;
(2)计算这15个帧间亮度差值的平均值,记为VDiff_av15;
(3)获取闪光检测的阈值,T_flush=σ×VDiff_av15,选取σ=5.5;
(4)依次比较帧间差与T_flush的大小;定义当前帧差为第n帧和第n+1帧的帧间差,若当前帧差大于T_flush,且下一相邻帧差也大于T_flush,则判定第n+1帧处有闪光发生;否则,没有闪光发生。
步骤1.3切变检测。采用亮度帧差作为切变检测特征,具体过程描述如下:
(1)在一个窗口中计算得到15个相邻帧间的亮度帧间差;
(2)计算这15个帧间亮度差值的平均值VDiff_15av;
(3)计算15个亮度帧差到该视频段亮度帧差均值VDiff_15av的距离VDist(i);
(4)计算切变检测的高阈值(Th_shot)和低阈值(Tl_shot);
(5)依次比较当前相邻帧差与该视频段亮度帧差均值VDiff_15av,同时比较各VDist(i)与切变的高阈值Th_shot和低阈值Tl_shot,若满足判定条件,则发生切变,否则,移窗,转(1)。
所述切变的判别条件为:
(1)视频段中第j个亮度帧差大于该视频段亮度帧差均值,且第j-1和第j+1个亮度帧差小于均值;
(2)视频段中第j个亮度帧差到该视频段亮度帧差均值距离大于高阈值,且第j-1和第j+1个亮度帧差到均值距离小于低阈值。
同时满足上述两个条件,则认为第j-1与第j帧之间发生了切变。
步骤1.4渐变检测
渐变检测以步骤1.3切变检测的结果为基础,对连续两次切变之间的视频帧序列进行渐变检测。具体过程描述如下:
(1)取两个切变镜头之间的所有帧,计算相邻帧间的颜色帧差;
(2)统计该视频段中颜色帧差的数量级直方图,以直方图最大的颜色帧差数量级为基准值,对颜色帧差进行0、1量化;
(3)对量化结果进行平滑,剔除毛刺;
(4)根据判定依据确定渐变段、渐变起始帧号和终止帧号。
渐变检测是在完成切变检测后,依据切变检测结果,依次读取相邻两次切变之间的视频帧序列进行渐变检测,直到源视频帧序列的末尾。
步骤2,在步骤1的基础上,提取每个镜头的关键帧。整体流程如图3所示,具体过程如下:
步骤2.1按时间将镜头分为子镜头,具体描述如下:
(1)计算镜头内所有相邻帧间的颜色直方图距离的均值av_CDiff,公式如下。
上式中,b为调节指数;
(2)计算所有相邻帧间颜色直方图距离到均值的距离之和(记为DistSum),取平均,记为av_DistSum;
(3)按照下式计算阈值:
T=av_CDiff+av_DistSum×β
其中,β为微调参数。
(4)记nShotStart=镜头起始帧号,nShotEnd=镜头终止帧号;
(5)记nFrom=nShotStart作为基准帧;
(6)从i=nShotStart+1帧开始,计算后续各帧与基准帧之间的颜色直方图差值CDiff(nFrom,i),并与阈值T比较;
●若CDiff(nFrom,i)>T,且i!=nShotEnd,提取nFrom与i-1帧之间最接近该段所有帧图像颜色直方图均值的图像作为关键帧,并重置基准帧nFrom=i,继续关键帧提取,直到i=nShotEnd;
●若i==nShotEnd,提取nFrom与i帧之间最接近该段所有帧图像颜色直方图均值的图像作为关键帧。
步骤2.2子镜头关键帧集合聚类,具体方法描述如下:
(1)将上一步获取的关键帧集合中的所有关键帧各分一类;
(2)通过距离均值确定两个关键帧类的距离,寻找距离最近的两个关键帧类,记距离mindiff;
(3)若mindiff≤T+α,则合并两个关键帧类,将类号大的归入到类号小的类中。转到(2);否则mindiff>T+α,两类间的最小距离大于阈值,则退出。α为微调参数。
步骤3,在步骤2的基础上,将所有镜头按照视觉相似性分组,整体流程如图4所示,具体过程如下:
步骤3.1,使用层次聚类确定初始分类
(1)计算视频内两两镜头相似度的均值av_Sim,公式如下;
其中,nShotSum为视频内的镜头总数。
(2)根据下式计算阈值;
(3)将所有镜头各分一类;
(4)对所有镜头进行循环:
●找到最相似的两镜头类i,j,设相似度为maxsim;
●若maxsim≥T,则合并i,j,将类号大的归入到类号小的类中。否则maxsim<T,两类间的最大相似度小于阈值,则退出循环。
步骤3.2,使用K均值聚类重定位结果,具体步骤为:
(1)将层次聚类的输出作为K均值聚类的初始分类;
(2)对所有镜头进行循环:
●对任意一个镜头,通过计算该镜头与类中各镜头相似度的均值确定它与各镜头类的相似度;
●若该镜头和某类的相似度大于它与自身类的相似度,则将它重定位到相似度较大的类中;
(3)判断在循环中是否有镜头类号发生变化,若有,转到(2),否则在该次循环中所有镜头类号均没有变化,则退出循环。
步骤4,在步骤3的基础上,生成静态摘要。
步骤3通过镜头聚类把所有镜头聚合成了多个镜头组,从每个镜头组的关键帧集合中提取一帧作为代表帧;再集合所有代表帧,就可以得到静态视频摘要。
所述镜头组代表帧的计算方法为:依次计算关键帧集合中每个元素与其余各元素的相似度之和,该值最大的关键帧即为本镜头组的代表帧。
步骤5,在步骤3的基础上,生成动态摘要。整体流程如图5所示,具体步骤如下:
步骤5.1,剔除贡献度较小的镜头组
确定各镜头组权重之前,先剔除那些对反映内容贡献很小的镜头组,算法如下:
(1)计算每个镜头组包含的图像帧总数Fi;
(2)计算阈值
其中,SnFrame为视频包含图像帧数,SnShot为视频包含镜头数,β为调节因子,取β=2;
(3)若Fi<Tw,则该镜头组为无用镜头组。
步骤5.2,确定镜头组的权重
镜头组权重的计算原则是:镜头组的时间越长,包含的内容越丰富,权重就越大。具体算法为:
(1)计算各镜头组包含的图像帧总数Fi。
(2)计算各镜头组关键帧集合的主色直方图的平均值:
其中,SnKeyFrame为镜头组包含的关键帧总数,Hk(i)为第k个关键帧的主颜色直方图。
(3)若SnKeyFrame>1,通过公式(6)计算每个镜头组的关键帧集合的主颜色直方图差异度Si,否则Si为所有SnKeyFrame>1的镜头组Si的最小值:
其中,D(k)为第k个关键帧的主颜色直方图与主颜色直方图均值的距离。
(4)计算镜头组的重要度:Ii=Si×Fi
(5)计算所有镜头组重要度总和:
步骤5.3,动态摘要生成
设s为用户指定的摘要时长与原始视频时长的比值,则具体生成算法描述如下:
(1)计算摘要视频所需图像帧数:
SnSCFrame=SnFrame×s
(2)获取有用镜头组集合及各镜头组在摘要视频中所占权重Wi;
(3)对于各有用镜头组,根据镜头组权重计算镜头组所需图像帧数:
FSi=SnSCFrame×Wi;
(4)提取各镜头组中的视频帧:
●提取质心镜头:若FSi>FnCenter,提取质心镜头全部帧,令FSi=FSi-FnCenter;否则提取质心镜头的前FSi帧,跳到(5);
●提取首镜头:若FSi>FnFirst,提取首镜头全部帧,令FSi=FSi-FnFirst;否则提取首镜头的前FSi帧,跳到(5);
●提取尾镜头:若FSi>FnEnd,提取尾镜头全部帧,令FSi=FSi-FnEnd;否则提取尾镜头的前FSi帧,跳到(5);
●计算剩余镜头与质心镜头、首镜头与尾镜头的距离,按照从小到大排序;
(5)按照排序依次保留各镜头的前36帧(不足的保留全部帧),直到总帧数达到FSi为止。
测试结果如下表所示。
表2镜头组查全率和查准率
表3动态摘要的平均用户满意度(US)
由表2可见,对于各类MTV,镜头组的平均查全率和查准率均为86.25%,生成的视频摘要能较好地反映视频的镜头组信息。同时,表2的数据也客观地反映了动态摘要在内容完整度方面的性能。
从表3中可以看出,随着摘要压缩比的提高,用户满意度逐渐降低,但是对于各视频,在压缩比小于5时,用户满意度均在7.5以上,说明用户对动态摘要的结果比较满意。
Claims (6)
1.一种基于镜头聚类的高理解度视频摘要***,其特征在于,所述方法包括以下步骤:
步骤1,镜头检测。
步骤2,提取每个镜头的关键帧。
步骤3,将所有镜头按照视觉相似性分组。
步骤4,从镜头组中提取代表帧作为静态摘要。
步骤5,动态摘要生成。
2.根据权利要求1所述的方法,其特征在于,所述镜头检测方法的具体步骤为:
步骤1图像预处理。即对图像进行中值滤波预处理,提高检测的准确度。
步骤2闪光检测。采用基于亮度帧差的方法,整体过程如图2所示,具体方法如下:
(1)在一个窗口中取16帧图像,计算得到15个相邻帧间的亮度帧间差;
(2)计算这15个帧间亮度差值的平均值,记为VDiff_av15;
(3)获取闪光检测的阈值,T_flush=σ×VDiff_av15,选取σ=5.5;
(4)依次比较帧间差与T_flush的大小;定义当前帧差为第n帧和第n+1帧的帧间差,若当前帧差大于T_flush,且下一相邻帧差也大于T_flush,则判定第n+1帧处有闪光发生;否则,没有闪光发生。
步骤3切变检测。采用亮度帧差作为切变检测特征,具体过程描述如下:
(1)在一个窗口中计算得到15个相邻帧间的亮度帧间差;
(2)计算这15个帧间亮度差值的平均值VDiff_15av;
(3)计算15个亮度帧差到该视频段亮度帧差均值VDiff_15av的距离VDist(i);
(4)计算切变检测的高阈值(Th_shot)和低阈值(Tl_shot);
(5)依次比较当前相邻帧差与该视频段亮度帧差均值VDiff_15av,同时比较各VDist(i)与切变的高阈值Th_shot和低阈值Tl_shot,若满足判定条件,则发生切变,否则,移窗,转(1)。
所述切变的判别条件为:
(1)视频段中第j个亮度帧差大于该视频段亮度帧差均值,且第j-1和第j+1个亮度帧差小于均值;
(2)视频段中第j个亮度帧差到该视频段亮度帧差均值距离大于高阈值,且第j-1和第j+1个亮度帧差到均值距离小于低阈值。
同时满足上述两个条件,则认为第j-1与第j帧之间发生了切变。
步骤4渐变检测
渐变检测以步骤1.3切变检测的结果为基础,对连续两次切变之间的视频帧序列进行渐变检测。具体过程描述如下:
(1)取两个切变镜头之间的所有帧,计算相邻帧间的颜色帧差;
(2)统计该视频段中颜色帧差的数量级直方图,以直方图最大的颜色帧差数量级为基准值,对颜色帧差进行0、1量化;
(3)对量化结果进行平滑,剔除毛刺;
(4)根据判定依据确定渐变段、渐变起始帧号和终止帧号。
渐变检测是在完成切变检测后,依据切变检测结果,依次读取相邻两次切变之间的视频帧序列进行渐变检测,直到源视频帧序列的末尾。
3.根据权利要求1所述的方法,其特征在于,所述每个镜头的关键帧的提取步骤具体包括:
步骤1按时间将镜头分为子镜头,具体描述如下:
(1)计算镜头内所有相邻帧间的颜色直方图距离的均值av_CDiff,公式如下。
上式中,b为调节指数;
(2)计算所有相邻帧间颜色直方图距离到均值的距离之和(记为DistSum),取平均,记为av_DistSum;
(3)按照下式计算阈值:
T=av_CDiff+av_DistSum×β
其中,β为微调参数。
(4)记nShotStart=镜头起始帧号,nShotEnd=镜头终止帧号;
(5)记nFrom=nShotStart作为基准帧;
(6)从i=nShotStart+1帧开始,计算后续各帧与基准帧之间的颜色直方图差值CDiff(nFrom,i),并与阈值T比较;
●若CDiff(nFrom,i)>T,且i!=nShotEnd,提取nFrom与i-1帧之间最接近该段所有帧图像颜色直方图均值的图像作为关键帧,并重置基准帧nFrom=i,继续关键帧提取,直到i=nShotEnd;
●若i==nShotEnd,提取nFrom与i帧之间最接近该段所有帧图像颜色直方图均值的图像作为关键帧。
步骤2子镜头关键帧集合聚类,具体方法描述如下:
(1)将上一步获取的关键帧集合中的所有关键帧各分一类;
(2)通过距离均值确定两个关键帧类的距离,寻找距离最近的两个关键帧类,记距离mindiff;
(3)若mindiff≤T+α,则合并两个关键帧类,将类号大的归入到类号小的类中。转到(2);否则mindiff>T+α,两类间的最小距离大于阈值,则退出。α为微调参数。
4.根据权利要求1所述的方法,其特征在于,所述将所有镜头按照视觉相似性分组的方法为:
步骤1,使用层次聚类确定初始分类
(1)计算视频内两两镜头相似度的均值av_Sim,公式如下;
其中,nShotSum为视频内的镜头总数。
(2)根据下式计算阈值;
(3)将所有镜头各分一类;
(4)对所有镜头进行循环:
●找到最相似的两镜头类i,j,设相似度为maxsim;
●若maxsim≥T,则合并i,j,将类号大的归入到类号小的类中。否则maxsim<T,两类间的最大相似度小于阈值,则退出循环。
步骤2,使用K均值聚类重定位结果,具体步骤为:
(1)将层次聚类的输出作为K均值聚类的初始分类;
(2)对所有镜头进行循环:
●对任意一个镜头,通过计算该镜头与类中各镜头相似度的均值确定它与各镜头类的相似度;
●若该镜头和某类的相似度大于它与自身类的相似度,则将它重定位到相似度较大的类中;
(3)判断在循环中是否有镜头类号发生变化,若有,转到(2),否则在该次循环中所有镜头类号均没有变化,则退出循环。
5.根据权利要求1所述的方法,其特征在于,所述从镜头组中提取代表帧作为静态摘要的具体方法为:
从每个镜头组的关键帧集合中提取一帧作为代表帧;再集合所有代表帧,就可以得到静态视频摘要。所述镜头组代表帧的计算方法为:依次计算关键帧集合中每个元素与其余各元素的相似度之和,该值最大的关键帧即为本镜头组的代表帧。
6.根据权利要求5所述的方法,其特征在于,所述动态摘要的具体步骤为:
步骤1,剔除贡献度较小的镜头组
确定各镜头组权重之前,先剔除那些对反映内容贡献很小的镜头组,算法如下:
(1)计算每个镜头组包含的图像帧总数Fi;
(2)计算阈值
其中,SnFrame为视频包含图像帧数,SnShot为视频包含镜头数,β为调节因子,取β=2;
(3)若Fi<Tw,则该镜头组为无用镜头组。
步骤2,确定镜头组的权重
镜头组权重的计算原则是:镜头组的时间越长,包含的内容越丰富,权重就越大。具体算法为:
(1)计算各镜头组包含的图像帧总数Fi。
(2)计算各镜头组关键帧集合的主色直方图的平均值:
其中,SnKeyFrame为镜头组包含的关键帧总数,Hk(i)为第k个关键帧的主颜色直方图。
(3)若SnKeyFrame>1,通过公式(6)计算每个镜头组的关键帧集合的主颜色直方图差异度Si,否则Si为所有SnKeyFrame>1的镜头组Si的最小值:
其中,D(k)为第k个关键帧的主颜色直方图与主颜色直方图均值的距离。
(4)计算镜头组的重要度:Ii=Si×Fi
(5)计算所有镜头组重要度总和:
步骤3,动态摘要生成
设s为用户指定的摘要时长与原始视频时长的比值,则具体生成算法描述如下:
(1)计算摘要视频所需图像帧数:
SnSCFrame=SnFrame×s
(2)获取有用镜头组集合及各镜头组在摘要视频中所占权重Wi;
(3)对于各有用镜头组,根据镜头组权重计算镜头组所需图像帧数:
FSi=SnSCFrame×Wi;
(4)提取各镜头组中的视频帧:
●提取质心镜头:若FSi>FnCenter,提取质心镜头全部帧,令FSi=FSi-FnCenter;否则提取质心镜头的前FSi帧,跳到(5);
●提取首镜头:若FSi>FnFirst,提取首镜头全部帧,令FSi=FSi-FnFirst;否则提取首镜头的前FSi帧,跳到(5);
●提取尾镜头:若FSi>FnEnd,提取尾镜头全部帧,令FSi=FSi-FnEnd;否则提取尾镜头的前FSi帧,跳到(5);
●计算剩余镜头与质心镜头、首镜头与尾镜头的距离,按照从小到大排序;
(5)按照排序依次保留各镜头的前36帧(不足的保留全部帧),直到总帧数达到FSi为止。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2013100751468A CN103150373A (zh) | 2013-03-08 | 2013-03-08 | 一种高满意度视频摘要生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2013100751468A CN103150373A (zh) | 2013-03-08 | 2013-03-08 | 一种高满意度视频摘要生成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN103150373A true CN103150373A (zh) | 2013-06-12 |
Family
ID=48548450
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2013100751468A Pending CN103150373A (zh) | 2013-03-08 | 2013-03-08 | 一种高满意度视频摘要生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103150373A (zh) |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103345764A (zh) * | 2013-07-12 | 2013-10-09 | 西安电子科技大学 | 一种基于对象内容的双层监控视频摘要生成方法 |
CN104063871A (zh) * | 2014-07-04 | 2014-09-24 | 西安电子科技大学 | 可穿戴设备的图像序列场景分割方法 |
CN104462099A (zh) * | 2013-09-16 | 2015-03-25 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN105139421A (zh) * | 2015-08-14 | 2015-12-09 | 西安西拓电气股份有限公司 | 电力***基于互信息量的视频关键帧提取方法 |
CN105589974A (zh) * | 2016-02-04 | 2016-05-18 | 通号通信信息集团有限公司 | 基于Hadoop平台的监控视频检索方法和*** |
CN105761263A (zh) * | 2016-02-19 | 2016-07-13 | 浙江大学 | 一种基于镜头边界检测和聚类的视频关键帧提取方法 |
CN106331786A (zh) * | 2016-08-22 | 2017-01-11 | 暴风集团股份有限公司 | 图文模式显示播放列表的方法及*** |
CN106777114A (zh) * | 2016-12-15 | 2017-05-31 | 北京奇艺世纪科技有限公司 | 一种视频分类方法及*** |
CN106845390A (zh) * | 2017-01-18 | 2017-06-13 | 腾讯科技(深圳)有限公司 | 视频标题生成方法及装置 |
CN107223344A (zh) * | 2017-01-24 | 2017-09-29 | 深圳大学 | 一种静态视频摘要的生成方法及装置 |
CN107437083A (zh) * | 2017-08-16 | 2017-12-05 | 上海荷福人工智能科技(集团)有限公司 | 一种自适应池化的视频行为识别方法 |
CN108764028A (zh) * | 2018-04-13 | 2018-11-06 | 北京航天自动控制研究所 | 一种滤波方式处理帧差法屏幕识别标签的方法 |
CN108804578A (zh) * | 2018-05-24 | 2018-11-13 | 南京理工大学 | 基于一致性片段生成的无监督视频摘要方法 |
CN108966004A (zh) * | 2018-06-27 | 2018-12-07 | 维沃移动通信有限公司 | 一种视频处理方法及终端 |
CN108989746A (zh) * | 2018-07-02 | 2018-12-11 | 广东格兰仕集团有限公司 | 一种用于家用电器的智能拍摄装置生成视频方法 |
CN109359219A (zh) * | 2018-11-01 | 2019-02-19 | 惠州学院 | 一种视频摘要模块处理方法 |
CN110674347A (zh) * | 2019-09-02 | 2020-01-10 | 南京邮电大学 | 视觉屏蔽双层ap视频摘要生成方法 |
CN110769279A (zh) * | 2018-07-27 | 2020-02-07 | 北京京东尚科信息技术有限公司 | 视频处理方法和装置 |
CN110852289A (zh) * | 2019-11-16 | 2020-02-28 | 公安部交通管理科学研究所 | 一种基于移动视频提取车辆及驾驶人信息的方法 |
CN110933520A (zh) * | 2019-12-10 | 2020-03-27 | 中国科学院软件研究所 | 一种基于螺旋摘要的监控视频展示方法及存储介质 |
CN112118494A (zh) * | 2019-06-20 | 2020-12-22 | 腾讯科技(深圳)有限公司 | 一种视频数据处理方法、装置及存储介质 |
WO2021017406A1 (zh) * | 2019-07-30 | 2021-02-04 | 腾讯音乐娱乐科技(深圳)有限公司 | 视频片段提取方法、装置、设备及存储介质 |
CN112579823A (zh) * | 2020-12-28 | 2021-03-30 | 山东师范大学 | 基于特征融合和增量滑动窗口的视频摘要生成方法及*** |
CN114697761A (zh) * | 2022-04-07 | 2022-07-01 | 脸萌有限公司 | 一种处理方法、装置、终端设备及介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102750383A (zh) * | 2012-06-28 | 2012-10-24 | 中国科学院软件研究所 | 一种面向视频内容的螺旋摘要生成方法 |
CN102819528A (zh) * | 2011-06-10 | 2012-12-12 | 中国电信股份有限公司 | 生成视频摘要的方法和装置 |
-
2013
- 2013-03-08 CN CN2013100751468A patent/CN103150373A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102819528A (zh) * | 2011-06-10 | 2012-12-12 | 中国电信股份有限公司 | 生成视频摘要的方法和装置 |
CN102750383A (zh) * | 2012-06-28 | 2012-10-24 | 中国科学院软件研究所 | 一种面向视频内容的螺旋摘要生成方法 |
Non-Patent Citations (3)
Title |
---|
冯扬 等: ""一种新的自适应镜头边界检测算法"", 《北京理工大学学报》, 31 January 2010 (2010-01-31) * |
罗森林 等: ""基于子镜头聚类方法的关键帧提取技术"", 《北京理工大学学报》, 31 March 2011 (2011-03-31) * |
马舒洁 等: ""基于镜头组权重的MTV摘要自动提取方法"", 《通信学报》, 31 August 2010 (2010-08-31) * |
Cited By (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103345764B (zh) * | 2013-07-12 | 2016-02-10 | 西安电子科技大学 | 一种基于对象内容的双层监控视频摘要生成方法 |
CN103345764A (zh) * | 2013-07-12 | 2013-10-09 | 西安电子科技大学 | 一种基于对象内容的双层监控视频摘要生成方法 |
CN104462099A (zh) * | 2013-09-16 | 2015-03-25 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN104462099B (zh) * | 2013-09-16 | 2018-07-03 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN104063871A (zh) * | 2014-07-04 | 2014-09-24 | 西安电子科技大学 | 可穿戴设备的图像序列场景分割方法 |
CN105139421A (zh) * | 2015-08-14 | 2015-12-09 | 西安西拓电气股份有限公司 | 电力***基于互信息量的视频关键帧提取方法 |
CN105139421B (zh) * | 2015-08-14 | 2018-07-24 | 西安西拓电气股份有限公司 | 电力***基于互信息量的视频关键帧提取方法 |
CN105589974B (zh) * | 2016-02-04 | 2019-05-17 | 通号通信信息集团有限公司 | 基于Hadoop平台的监控视频检索方法和*** |
CN105589974A (zh) * | 2016-02-04 | 2016-05-18 | 通号通信信息集团有限公司 | 基于Hadoop平台的监控视频检索方法和*** |
CN105761263A (zh) * | 2016-02-19 | 2016-07-13 | 浙江大学 | 一种基于镜头边界检测和聚类的视频关键帧提取方法 |
CN106331786A (zh) * | 2016-08-22 | 2017-01-11 | 暴风集团股份有限公司 | 图文模式显示播放列表的方法及*** |
CN106777114A (zh) * | 2016-12-15 | 2017-05-31 | 北京奇艺世纪科技有限公司 | 一种视频分类方法及*** |
CN106845390A (zh) * | 2017-01-18 | 2017-06-13 | 腾讯科技(深圳)有限公司 | 视频标题生成方法及装置 |
CN107223344A (zh) * | 2017-01-24 | 2017-09-29 | 深圳大学 | 一种静态视频摘要的生成方法及装置 |
WO2018137126A1 (zh) * | 2017-01-24 | 2018-08-02 | 深圳大学 | 一种静态视频摘要的生成方法及装置 |
CN107437083A (zh) * | 2017-08-16 | 2017-12-05 | 上海荷福人工智能科技(集团)有限公司 | 一种自适应池化的视频行为识别方法 |
CN108764028A (zh) * | 2018-04-13 | 2018-11-06 | 北京航天自动控制研究所 | 一种滤波方式处理帧差法屏幕识别标签的方法 |
CN108764028B (zh) * | 2018-04-13 | 2020-07-14 | 北京航天自动控制研究所 | 一种滤波方式处理帧差法屏幕识别标签的方法 |
CN108804578A (zh) * | 2018-05-24 | 2018-11-13 | 南京理工大学 | 基于一致性片段生成的无监督视频摘要方法 |
CN108804578B (zh) * | 2018-05-24 | 2022-06-07 | 南京理工大学 | 基于一致性片段生成的无监督视频摘要方法 |
CN108966004A (zh) * | 2018-06-27 | 2018-12-07 | 维沃移动通信有限公司 | 一种视频处理方法及终端 |
CN108966004B (zh) * | 2018-06-27 | 2022-06-17 | 维沃移动通信有限公司 | 一种视频处理方法及终端 |
CN108989746A (zh) * | 2018-07-02 | 2018-12-11 | 广东格兰仕集团有限公司 | 一种用于家用电器的智能拍摄装置生成视频方法 |
CN110769279A (zh) * | 2018-07-27 | 2020-02-07 | 北京京东尚科信息技术有限公司 | 视频处理方法和装置 |
US11445272B2 (en) | 2018-07-27 | 2022-09-13 | Beijing Jingdong Shangke Information Technology Co, Ltd. | Video processing method and apparatus |
CN109359219A (zh) * | 2018-11-01 | 2019-02-19 | 惠州学院 | 一种视频摘要模块处理方法 |
CN112118494B (zh) * | 2019-06-20 | 2022-09-20 | 腾讯科技(深圳)有限公司 | 一种视频数据处理方法、装置及存储介质 |
CN112118494A (zh) * | 2019-06-20 | 2020-12-22 | 腾讯科技(深圳)有限公司 | 一种视频数据处理方法、装置及存储介质 |
WO2021017406A1 (zh) * | 2019-07-30 | 2021-02-04 | 腾讯音乐娱乐科技(深圳)有限公司 | 视频片段提取方法、装置、设备及存储介质 |
CN110674347B (zh) * | 2019-09-02 | 2022-04-01 | 南京邮电大学 | 视觉屏蔽双层ap视频摘要生成方法 |
CN110674347A (zh) * | 2019-09-02 | 2020-01-10 | 南京邮电大学 | 视觉屏蔽双层ap视频摘要生成方法 |
CN110852289A (zh) * | 2019-11-16 | 2020-02-28 | 公安部交通管理科学研究所 | 一种基于移动视频提取车辆及驾驶人信息的方法 |
CN110933520A (zh) * | 2019-12-10 | 2020-03-27 | 中国科学院软件研究所 | 一种基于螺旋摘要的监控视频展示方法及存储介质 |
CN112579823B (zh) * | 2020-12-28 | 2022-06-24 | 山东师范大学 | 基于特征融合和增量滑动窗口的视频摘要生成方法及*** |
CN112579823A (zh) * | 2020-12-28 | 2021-03-30 | 山东师范大学 | 基于特征融合和增量滑动窗口的视频摘要生成方法及*** |
CN114697761A (zh) * | 2022-04-07 | 2022-07-01 | 脸萌有限公司 | 一种处理方法、装置、终端设备及介质 |
CN114697761B (zh) * | 2022-04-07 | 2024-02-13 | 脸萌有限公司 | 一种处理方法、装置、终端设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103150373A (zh) | 一种高满意度视频摘要生成方法 | |
Kang | Affective content detection using HMMs | |
Amir et al. | IBM Research TRECVID-2003 Video Retrieval System. | |
Hua et al. | Clickage: Towards bridging semantic and intent gaps via mining click logs of search engines | |
Del Fabro et al. | State-of-the-art and future challenges in video scene detection: a survey | |
CN112163122B (zh) | 确定目标视频的标签的方法、装置、计算设备及存储介质 | |
CN101821734B (zh) | 时基媒体之间的匹配的检测和分类 | |
US8948515B2 (en) | Method and system for classifying one or more images | |
Bhattacharya et al. | Towards a comprehensive computational model foraesthetic assessment of videos | |
US10248865B2 (en) | Identifying presentation styles of educational videos | |
CN110442747B (zh) | 一种基于关键词的视频摘要生成方法 | |
US20070030391A1 (en) | Apparatus, medium, and method segmenting video sequences based on topic | |
CN101369281A (zh) | 基于视频摘要元数据的检索方法 | |
Srinivas et al. | An improved algorithm for video summarization–a rank based approach | |
Imran et al. | Semantic tags for lecture videos | |
Snoek et al. | Learning rich semantics from news video archives by style analysis | |
CN110378190B (zh) | 基于主题识别的视频内容检测***及检测方法 | |
Chaisorn et al. | A Two-Level Multi-Modal Approach for Story Segmentation of Large News Video Corpus. | |
KR20210087861A (ko) | 비디오 생성 장치 및 이에 의한 비디오 생성 방법 | |
Wang et al. | Real-time summarization of user-generated videos based on semantic recognition | |
CN112040313B (zh) | 一种视频内容结构化方法、装置、终端设备及介质 | |
Baber et al. | Video segmentation into scenes using entropy and SURF | |
CN113255423A (zh) | 从视频提取配色方案的方法及装置 | |
Valdés et al. | On-line video abstract generation of multimedia news | |
Zhang et al. | Hybrid improvements in multimodal analysis for deep video understanding |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20130612 |
|
RJ01 | Rejection of invention patent application after publication |