CN110166851B - 一种视频摘要生成方法、装置和存储介质 - Google Patents
一种视频摘要生成方法、装置和存储介质 Download PDFInfo
- Publication number
- CN110166851B CN110166851B CN201810955587.XA CN201810955587A CN110166851B CN 110166851 B CN110166851 B CN 110166851B CN 201810955587 A CN201810955587 A CN 201810955587A CN 110166851 B CN110166851 B CN 110166851B
- Authority
- CN
- China
- Prior art keywords
- image
- target
- video
- target tracking
- processed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/73—Querying
- G06F16/738—Presentation of query results
- G06F16/739—Presentation of query results in form of a video summary, e.g. the video summary being a video sequence, a composite still image or having synthesized frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/75—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7847—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
- G06F16/785—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using colour or luminescence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
- G06V20/47—Detecting features for summarising video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
- H04N21/854—Content authoring
- H04N21/8549—Creating video summaries, e.g. movie trailer
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Library & Information Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Signal Processing (AREA)
- Computer Security & Cryptography (AREA)
- Image Analysis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
本发明实施例公开了一种视频摘要生成方法、装置和存储介质,本发明实施例中方法包括:获取生成视频摘要的目标筛选条件;根据目标筛选条件在预设视频数据库中查找结构化图像数据,得到结构化图像数据;对结构化图像数据进行视频合成,生成视频摘要。本发明实施例中由于视频数据库中保存有视频图像的结构化图像数据,在用户检索相关视频时,可从结构化图像数据中快速筛选相关视频信息,生成视频摘要,极大的方便了用户对视频目标内容的定位,也极大的拓展了视频摘要的应用场景。
Description
技术领域
本发明涉及通信技术领域,具体涉及一种视频摘要生成方法、装置和存储介质。
背景技术
视频摘要的英文名是Video Abstract,它是一个可以概括原始视频主要内容的技术。随着我们对视频数据处理的要求不断提高和视频数据量的不断增多,人们需要为一长段视频建立一段摘要来快速浏览以便更好地利用它。通过视频摘要技术,让我们在基于内容的视频检索中不仅仅能利用文字,而且能够充分利用音视频信息。视频摘要技术解决的问题是如何使视频数据有效的表示和快速的访问,它是利用对视频内容的分析来减小视频存储、分类和索引的代价,提高视频的使用效率、可用性和可访问性,是基于内容的视频分析技术的发展。
现有视频摘要生成方案中,对视频内容的处理较为简单,并且也没有对视频内容进行数据结构化处理,无法实现视频内容的快速筛选和检索,导致使用场景和应用场景较为受限。
发明内容
本发明实施例提供一种视频摘要生成方法、装置和存储介质,方便了用户对视频目标内容的定位,也极大的拓展了视频摘要的应用场景。
第一方面,本申请提供了一种视频摘要生成方法,该方法包括:
获取生成视频摘要的目标筛选条件;
根据所述目标筛选条件在预设视频数据库中查找结构化图像数据,得到结构化图像数据;
对所述结构化图像数据进行视频合成,生成视频摘要。
可选的,所述根据所述目标筛选条件在预设视频数据库中确定筛选目标跟踪序列,包括:
获取所述目标筛选条件中的关键词;
在所述视频数据库中确定具有与所述关键词相同属性信息的目标跟踪序列,得到所述筛选目标跟踪序列。
第二方面,本申请提供一种视频摘要生成装置,该装置包括:
第一获取单元,用于获取生成视频摘要的目标筛选条件;
查找单元,用于根据所述目标筛选条件在预设视频数据库中查找结构化图像数据,得到结构化图像数据;
生成单元,用于对所述结构化图像数据进行视频合成,生成视频摘要。
可选的,所述查找单元包括确定子单元和获取子单元,具体如下:
确定子单元,用于根据所述目标筛选条件在预设视频数据库中确定筛选目标跟踪序列,所述视频数据库中保存有以目标跟踪序列为单位的结构化图像数据;
获取子单元,用于从所述视频数据库中获取所述筛选目标跟踪序列的结构化图像数据,得到结构化图像数据。
可选的,所述装置还包括:
第二获取单元,用于获取待处理视频;
属性分析单元,用于对所述待处理视频进行属性分析,以从所述待处理视频中确定目标跟踪序列,并获取所述待处理视频中各目标跟踪序列的目标结构化图像数据;
存储单元,用于将所述目标结构化图像数据存储在所述视频数据库中。
可选的,所述属性分析单元包括:
获取子单元,用于获取所述待处理视频中的待处理图像;
前景提取子单元,用于对所述待处理图像进行前景提取,得到所述待处理图像中每帧图像的前景图像;
属性分析子单元,用于利用所述待处理图像的前景图像进行属性分析,以获取所述待处理图像中各目标跟踪序列的属性分析结果;
存储子单元,用于将所述属性分析结果保存到预设的结构化的目标属性数据结构中,得到所述目标结构化图像数据。
可选的,所述属性分析子单元具体用于:
对所述待处理图像的前景图像进行目标跟踪,以获取所述待处理图像中的目标跟踪序列;
对每个目标跟踪序列进行属性分析,以获取所述属性分析结果,所述属性分析结果中包括每个目标跟踪序列的属性信息。
可选的,所述属性分析结果中包括每个目标跟踪序列的颜色属性信息,所述属性分析子单元具体用于:
根据预设的像素值与颜色的映射关系,确定每个目标跟踪序列中每个前景图像的像素点对应的颜色;
根据所述每个前景图像的像素点对应的颜色,统计各颜色在每个前景图像中对应的像素点个数;
根据各颜色在每个前景图像中对应的像素点个数,确定每个目标跟踪序列的颜色属性信息。
可选的,所述属性分析子单元具体用于:
对每个目标跟踪序列,若目标颜色在目标前景图像中对应的像素点的个数达到所述目标前景图像中总像素点个数的第一预设比例,则确定该目标前景图像具有所述目标颜色的颜色属性;
若目标跟踪序列中第二预设比例的前景图像具有所述目标颜色的颜色属性,则确定该目标跟踪序列具有所述目标颜色的颜色属性。
可选的,所述属性分析结果中包括每个目标跟踪序列中每个前景图像的物体类别属性信息,所述属性分析子单元具体用于:
利用预设的物体分类神经网络模型,对每个目标跟踪序列中每个前景图像进行物体类别分类,得到每个目标跟踪序列的物体类别属性信息。
可选的,所述前景提取子单元具体用于:
将所述待处理图像中每帧图像转换为单通道灰度图;
提取所述待处理图像中每帧图像中预设类型的局部特征图;
根据所述每帧图像的单通道灰度图及每帧图像中的局部特征图,确定所述待处理图像中每帧图像的前景图像。
可选的,所述前景提取子单元具体用于:
将每帧图像的单通道灰度图及每帧图像中的局部特征图,合成每帧图像的有效图像;
利用每帧图像的有效图像与预设的混合高斯模型进行匹配,得到所述待处理图像中每帧图像的前景图像。
可选的,所述存储子单元具体用于:
为所述待处理图像中的每个目标跟踪序列分配标识信息;
根据所述待处理图像中每个目标跟踪序列的标识信息、每个目标跟踪序列的属性信息和所述每个目标跟踪序列中每个前景图像,得到每个目标跟踪序列的数据;
将每个目标跟踪序列的数据分别保存到预设的结构化的目标属性数据结构中,得到目标结构化图像数据,所述目标结构化图像数据包括所述待处理图像中每个目标跟踪序列的结构化图像数据。
可选的,所述获取子单元具体用于:
对所述待处理视频进行关键帧检测,得到所述待处理视频中的关键帧;
将所述关键帧作为所述待处理图像。
可选的,所述确定子单元具体用于:
获取所述目标筛选条件中的关键词;
在所述视频数据库中确定具有与所述关键词相同属性信息的目标跟踪序列,得到所述筛选目标跟踪序列。
可选的,所述视频数据库中还包括与每个目标跟踪序列对应的多个背景图像,所述多个背景图像中每个背景图像对应每个目标跟踪序列中预设帧数的前景图像;所述生成单元具体用于:
获取所述目标筛选条件中的目标合成密度;
新建与所述目标合成密度对应的N个合成队列,N为正整数;
将所述筛选目标跟踪序列中的目标跟踪序列平均分配到所述N个合成队列;
将所述N个合成队列中对应的目标跟踪序列的前景图像依次贴合到对应的背景图像上,以生成视频摘要。
第三方面,本发明还提供一种存储介质,所述存储介质存储有多条指令,所述指令适于处理器进行加载,以执行时第一方面中任一所述的视频摘要生成方法中的步骤。
本发明实施例通过获取生成视频摘要的目标筛选条件;根据目标筛选条件在预设视频数据库中查找结构化图像数据,得到结构化图像数据;对结构化图像数据进行视频合成,生成视频摘要。本发明实施例中由于视频数据库中保存有视频图像的结构化图像数据,在用户检索相关视频时,可从结构化图像数据中快速筛选相关视频信息,生成视频摘要,极大的方便了用户对视频目标内容的定位,加快了视频摘要的生成过程,也极大的拓展了视频摘要的应用场景。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的视频摘要生成***的一个实施例示意图;
图2是本发明实施例提供的视频摘要生成方法的一个实施例示意图;
图3是本发明实施例提供的每帧图像的单通道灰度图及每帧图像中的局部特征图合成每帧图像的有效图像的一个实施例示意图;
图4是本发明实施例提供的视频摘要生成方法的另一个实施例示意图;
图5是本发明实施例提供的视频摘要生成应用场景的一个实施例示意图;
图6是本发明实施例提供的视频摘要生成装置的一个实施例示意图;
图7是本发明实施例提供的服务器的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在以下的说明中,本发明的具体实施例将参考由一部或多部计算机所执行的步骤及符号来说明,除非另有说明。因此,这些步骤及操作将有数次提到由计算机执行,本文所指的计算机执行包括了由代表了以一结构化型式中的数据的电子信号的计算机处理单元的操作。此操作转换该数据或将其维持在该计算机的内存***中的位置处,其可重新配置或另外以本领域测试人员所熟知的方式来改变该计算机的运作。该数据所维持的数据结构为该内存的实***置,其具有由该数据格式所定义的特定特性。但是,本发明原理以上述文字来说明,其并不代表为一种限制,本领域测试人员将可了解到以下所述的多种步骤及操作亦可实施在硬件当中。
本文所使用的术语「模块」可看做为在该运算***上执行的软件对象。本文所述的不同组件、模块、引擎及服务可看做为在该运算***上的实施对象。而本文所述的装置及方法优选的以软件的方式进行实施,当然也可在硬件上进行实施,均在本发明保护范围之内。
视频摘要是一个可以概括原始视频主要内容的技术。随着我们对视频数据处理的要求不断提高和视频数据量的不断增多,人们需要为一长段视频建立一段摘要来快速浏览以便更好地利用它。通过视频摘要技术,让我们在基于内容的视频检索中不仅仅能利用文字,而且能够充分利用音视频信息。视频摘要的作用主要是便于存储和视频的浏览或查找,相对于原始的视频资料,视频摘要的长度要短很多,节省了存储时间、空间,视频摘要保留了原内容的要点,所以对于用户来说,浏览或查找视频摘要比浏览原始视频要节省时间。
本发明实施例提供一种视频摘要生成方法、装置和存储介质。
请参阅图1,图1是本发明实施例提供的视频摘要生成***示意图,如图1所示,该视频摘要生成***包括服务器,该服务器可以是一台服务器,也可以是由若干台服务器组成的服务器集群,或者是一个云计算服务中心。
本发明实施例中,该视频摘要生成***具有生成视频摘要的功能,具体的,该视频摘要生成***可以包括视频摘要生成装置,该视频摘要生成装置具体可以集成在服务器中,该服务器即图1中的服务器,该服务器主要用于采用获取生成视频摘要的目标筛选条件;根据目标筛选条件在预设视频数据库中查找结构化图像数据,得到结构化图像数据;对结构化图像数据进行视频合成,生成视频摘要。
该视频摘要生成***还可以包括一个或多个终端,该终端可以作为图像采集设备,可以对图像进行采集,并将采集到的图像转换为计算机可读的形式,例如视频等。图1中仅示出一个终端,需要说明的是,在实际应用中根据需要可以设置一个或多个终端。
该视频摘要生成***还可以包括存储器,用于存储视频数据库,该视频数据库中保存有视频数据,该视频数据可以是一个或多个终端拍摄的视频数据,例如一个或多个监控摄像头拍摄的监控视频数据,也可以是其他影视视频数据,该视频数据中包括以目标跟踪序列为单位的结构化图像数据,以供用户进行视频内容的检索,生成视频摘要。
需要说明的是,图1所示的视频摘要生成***的场景示意图仅仅是一个示例,本发明实施例描述的视频摘要生成***以及场景是为了更加清楚的说明本发明实施例的技术方案,并不构成对于本发明实施例提供的技术方案的限定,本领域普通技术人员可知,随着视频摘要生成***的演变和新业务场景的出现,本发明实施例提供的技术方案对于类似的技术问题,同样适用。
下面结合具体实施例进行详细说明。
在本实施例中,将从视频摘要生成装置的角度进行描述,该视频摘要生成装置具体可以集成在服务器中。
本发明提供一种视频摘要生成方法,该方法包括:获取生成视频摘要的目标筛选条件;根据目标筛选条件在预设视频数据库中查找结构化图像数据,得到结构化图像数据;对结构化图像数据进行视频合成,生成视频摘要。
请参阅图2,本发明实施例中视频摘要生成方法的一个实施例包括:
101、获取生成视频摘要的目标筛选条件;
本发明实施例中,在用户需要在预设的视频数据库中进行视频内容筛选时,可以在预设的筛选选项中选择的筛选条件,筛选选项具体可以根据实际应用需要进行设置,例如,颜色选项(如红色,黑色或不限制等),物体类别选项(如人或车辆等,具体的还可以是男人或女人,汽车或自行车等),目标轨迹方向选项(如目标轨迹方向为从南到北)等,若用户未在筛选选项中选择,则筛选条件为默认的筛选条件,例如若用户未在筛选选项中选择,返回值为空,则对筛选选项中默认全选。在用户选择筛选选项后,即可得到目标筛选条件,该目标筛选条件中包括筛选选项中选择的对应的关键词,该关键词中可以包括一个或多个目标关键词,例如,红色、男人和汽车等,表示需要在视频数据库中查找具有红色、男人和汽车等目标属性特征的图像数据。
可以理解的是,目标筛选条件还可以同时包括生成视频摘要的其他一些设置条件,具体可以根据实际应用需求进行设置,例如,目标筛选条件中包括目标合成密度,目标合成密度表示在生成的视频摘要中每帧图像中目标的个数,在本发明一些实施例中,还可以设置目标合成密度的高、中和低三个档位,每个档位对应一个目标合成密度,例如目标合成密度为低档位时,表示在生成的视频摘要中每帧图像中目标的个数为3个,目标合成密度为中档位时,表示在生成的视频摘要中每帧图像中目标的个数为6个,目标合成密度为高档位时,表示在生成的视频摘要中每帧图像中目标的个数为9个。又或者目标筛选条件中包括筛选时间范围,例如2018.3.1~2018.3.2,当然还可以进一步包括小时、分钟或秒的信息。
本发明实施例中,在用户选择进行视频内容筛选时,视频摘要生成装置即获取用户在筛选选项中选择筛选条件,获取该目标筛选条件。
102、根据目标筛选条件在预设视频数据库中查找结构化图像数据,得到结构化图像数据。
具体的,该视频数据库中保存有视频图像的结构化图像数据,例如视频数据库中保存有以目标跟踪序列为单位的结构化图像数据。此时,根据目标筛选条件在预设视频数据库中查找结构化图像数据,得到结构化图像数据可以包括:
(1)根据目标筛选条件在预设视频数据库中确定筛选目标跟踪序列。
本发明实施例中,会在该视频数据库中保存有以目标跟踪序列为单位的结构化图像数据,结构化数据也称作行数据,是由二维表结构来逻辑表达和实现的数据,严格地遵循数据格式与长度规范,主要通过关系型数据库进行存储和管理。本发明实施例中,图像数据以结构化数据的格式存储,即结构化图像数据。
一般情况下,为了保存特定来源的视频数据,会单独设置一个视频数据库,对于本发明实施例中该视频数据库中保存的视频数据,可以是一个或多个监控摄像头拍摄的监控视频数据,即本发明实施例中视频数据库可以为小区监控视频数据库、路口监控视频数据库、车库监控视频数据库或商场监控视频数据库等监控视频数据库,可以理解的是,在本发明其他实施例中,该视频数据库还可以其他影视视频数据库,因此,本发明实施例中视频数据库可以是任何需要进行视频内容检索的视频数据库,此处不做具体限定。
对于视频数据库来说,会时时更新存储新的视频数据,因此对于待存入该视频数据库中的待处理视频,会进行一些处理,以便后续视频内容检索时方便生成视频摘要及查找。因此本发明实施例中还可以包括对待处理视频处理存储到该视频数据库的步骤,具体的,本发明实施例中还可以包括:获取待处理视频;对待处理视频进行属性分析,以从待处理视频中确定目标跟踪序列,并获取待处理视频中各目标跟踪序列的目标结构化图像数据,将目标结构化图像数据存储在视频数据库中。
其中,待处理视频可以待存入视频数据库中的视频数据,假设视频数据库为监控视频数据库,该待处理视频可以是某个时间段新增的视频数据,例如,某一天新增的视频数据,或者某一小时新增的视频数据,或者半天内新增的视频数据等,具体可以根据实际场景需要进行设置。
具体的,对待处理视频进行属性分析,以从待处理视频中确定目标跟踪序列,并获取待处理视频中各目标跟踪序列的目标结构化图像数据具体可以包括:获取待处理视频中的待处理图像;对待处理图像进行前景提取,得到所述待处理图像中每帧图像的前景图像;利用待处理图像的前景图像进行属性分析,以获取待处理图像中各目标跟踪序列的属性分析结果;将属性分析结果保存到预设的结构化的目标属性数据结构中,得到目标结构化图像数据。
其中,获取待处理视频中的待处理图像可以获取待处理视频中每帧图像,由于对于监控视频来说,有可能存在长时间没有多少变化的监控图像,因此为了提高后续处理效率,获取待处理视频中的待处理图像也可以是获取待处理视频中的关键帧图像,在获取待处理视频中的关键帧图像时,即获取待处理视频中的待处理图像具体可以包括:对待处理视频进行关键帧检测,得到待处理视频中的关键帧;将关键帧作为待处理图像。在对待处理视频进行关键帧检测时,可以采用现有的关键帧提取算法。利用关键帧检测可以将如待处理视频中大量重复无太大变化图像中仅选取一个关键帧,或者不选取(如一段监控图像中没有任何目标的情况下)。
本发明实施例中可以预先进行背景建模,以对待处理图像进行前景提取,得到待处理图像中每帧图像的前景图像。背景建模后,可以快速实现对待处理图像进行前景提取,得到待处理图像中每帧图像的前景图像的过程,该过程步骤具体可以包括:将待处理图像中每帧图像转换为单通道灰度图;提取待处理图像中每帧图像中预设类型的局部特征图;根据每帧图像的单通道灰度图及每帧图像中的局部特征图,确定待处理图像中每帧图像的前景图像。进一步的,根据每帧图像的单通道灰度图及每帧图像中的局部特征图,确定待处理图像中每帧图像的前景图像可以包括:将每帧图像的单通道灰度图及每帧图像中的局部特征图,合成每帧图像的有效图像;利用每帧图像的有效图像与预设的混合高斯模型进行匹配,得到待处理图像中每帧图像的前景图像。
下面以一个示例作出说明,如图3所示,在背景建模里,混合高斯模式的输入为一个多通道的图像(d),该图像的不同通道对应了不同的数据源(b)(c);待处理图像中的视频帧(a)通常是彩色图像,即RGB(Red,Green,Blue)三通道图像(彩色是由红色、绿色、蓝色按不同比例混合而来,因此彩色图像包含了三个分别代表红色通道、绿色通道和蓝色通道的单色图);在一个实施例中,每帧图像的RGB三通道图像(a)被压缩合成为每帧图像的单通道灰度图(b),作为混合高斯模型输入的多通道图(d)的一个通道,而基于每帧图像的RGB三通道图像(a)提取的局部特征(如纹理、形状等特征)图(c)作为混合高斯建模输入的多通道图(d)的其他通道,共同贴合成一个多通道的图(d)(即为每帧图像的有效图像),作为混合高斯模型的输入。
需要说明的,在利用每帧图像的有效图像与预设的混合高斯模型进行匹配,得到待处理图像中每帧图像的前景图像的过程中,混合高斯模型在从有效图像中分离前景和背景信息的同时,也会缓慢的逐渐更新自己,使得其保存和维护的背景信息与最新的背景信息保持一致。具体的,即在利用混合高斯获得一帧前景图像(此时相应的背景图像也确定了)后更新混合高斯模型,由于在分离图像得到前景图像和背景图像的过程中,更新混合高斯模型为本领域技术常用技术手段,具体细节此处不再赘述。
在通过背景建模得到待处理图像中每帧图像的前景图像之后,还可以对得到的前景图像进行进一步处理,例如通过对前景分割图膨胀后提取轮廓再填充的技术手段,可以进一步减少前景图像孔洞和残缺,使得提取的前景图像具有更好的效果。由于该技术手段为常规使用的技术手段,本实施例中不再赘述。
在对待处理图像进行前景提取,得到待处理图像中每帧图像的前景图像的过程中,由于每帧图像是由前景和背景图像组成的,在每帧图像提取前景图像后,该帧图像的背景图像即可确定了,可以对背景图像进行相应的保存,以方便后续使用,若待处理视频为监控视频,对于监控视频来说,由于监控摄像头一般情况下是固定的,拍摄角度也是固定的,这样拍出来的图像的背景图像相对比较固定,例如一直对着某个路口,拍摄出来的视频背景就一直是该路口的背景图像。因此,背景图像的保存可以是按照预设时长进行保存,或者与前景图像的预设帧数比例来保存(即每个背景图像对应每个目标跟踪序列中预设帧数的前景图像),例如,待处理视频每个30分钟保存一个背景图像,目标跟踪序列在这个时间段的前景图对应该背景图像,或者,每保存1000帧前景图像,保存一帧背景图像,即一帧背景图像对应1000帧前景图像,通过这种方式可以对每个目标跟踪序列保存对应的背景图像。
另外,利用待处理图像的前景图像进行属性分析,以获取待处理图像中各目标跟踪序列的属性分析结果的步骤可以包括:对待处理图像的前景图像进行目标跟踪,以获取待处理图像中的目标跟踪序列;对每个目标跟踪序列进行属性分析,以获取各目标跟踪序列的属性分析结果,该属性分析结果中包括每个目标跟踪序列的属性信息。其中,利用待处理图像的前景图像进行属性分析,以获取各目标跟踪序列的属性分析结果可以采用预设目标跟踪算法,例如KCF(High-speed tracking with kernelized correlation filters)算法及KCF算法改进算法,其中,KCF算法改进算法即使用目标检测技术(此处可以使用本实施例中背景建模的前景提取技术,也可以用其他检测技术代替)在当前帧全局进行检测得到目标框,与KCF算法在局部进行检测的待选目标框一起和上一帧目标框进行比较,取其中特征响应最强(即待选目标框与上一帧目标框图像匹配对最高)的作为跟踪目标,对目标进行跟踪,即可获取待处理图像中的目标跟踪序列,本发明是实施例中,当某个跟踪目标跟踪结束,或者达到预设数量(例如1000帧)的跟踪帧数后,即完成对该目标的跟踪。
在获取待处理图像中的目标跟踪序列之后,即对每个目标跟踪序列进行属性分析之后,获取属性分析结果,该属性分析结果可以包括每个目标跟踪序列的属性信息,该目标跟踪序列的属性信息可以根据实际需要进行提取,例如,目标跟踪序列的属性信息可以包括目标跟踪序列的颜色属性信息,目标跟踪序列的物体类别属性跟踪信息或目标跟踪序列的目标轨迹方向属性信息等。
当属性分析结果中包括每个目标跟踪序列的颜色属性信息时,此时,对每个目标跟踪序列进行属性分析之后,获取属性分析结果的步骤包括:
根据预设的像素值与颜色的映射关系,确定每个目标跟踪序列中每个前景图像的像素点对应的颜色;根据每个前景图像的像素点对应的颜色,统计各颜色在每个前景图像中对应的像素点个数;根据各颜色在每个前景图像中对应的像素点个数,确定每个目标跟踪序列的颜色属性信息。
该预设的像素值与颜色的映射关系可以是RGB(Red,Green,Blue)颜色模型、HSV(Hue,Saturation,Value)颜色模型、YUV颜色模型或CMYK(Cyan,Magenta,Yellow,Black)颜色模型等。由于HSV是一种比较直观的颜色模型,所以在许多图像处理领域中应用比较广泛,因此优选的,预设的像素值与颜色的映射关系可以采用HSV颜色模型。在根据预设的像素值与颜色的映射关系,确定每个目标跟踪序列中每个前景图像的像素点对应的颜色之后,可以根据每个前景图像的像素点对应的颜色,统计各颜色在每个前景图像中对应的像素点个数。例如,对前景图像A中,确定红色像素点30个,黑色像素点40个。
进一步的,根据各颜色在每个前景图像中对应的像素点个数,确定每个目标跟踪序列的颜色属性信息可以包括:对每个目标跟踪序列,若目标颜色在目标前景图像中对应的像素点的个数达到目标前景图像中总像素点个数的第一预设比例,则确定该目标前景图像具有所述目标颜色的颜色属性;若目标跟踪序列中第二预设比例的前景图像具有目标颜色的颜色属性,则确定该目标跟踪序列具有目标颜色的颜色属性。
其中,第一预设比例和第二预设比例可以根据实际需要进行设置,例如第一预设比例为30%,第二预设比例为90%。此时,假设对于某个目标跟踪序列,其目标前景图像中,包括100个像素点,其中红色像素点30个,黑色像素点50个,白色像素点10个,其他颜色像素点10个,则红色像素点占目标前景图中总像素点个数比例为:30/100=30%,黑色像素点占目标前景图中总像素点个数比例为:50/100=50%,白色像素点占目标前景图中总像素点比例为:10/100=10%,由于,红色像素点和黑色像素点占目标前景图中总像素点比例大于第一预设比例30%,则确定红色和黑色为目标前景图的属性颜色。在确定该目标跟踪序列中所有前景图的属性颜色之后,若目标跟踪序列中90%的前景图中具有红色属性,则确定该目标跟踪序列具有该红色属性。
当属性分析结果中包括每个目标跟踪序列中每个前景图像的物体类别属性信息时,此时,该对每个目标跟踪序列进行属性分析,以获取所述属性分析结果的步骤具体可以包括:利用预设的物体分类神经网络模型,对每个目标跟踪序列中每个前景图像进行物体类别分类,得到每个目标跟踪序列的物体类别属性信息。该物体分类神经网络模型可以是现有的物体分类神经网络模型,也可以是通过预设数量的前景图及对应的前景图中物体类别信息,训练构建的物体分类神经网络得到,该物体分类神经网络模型,目前该技术已比较成熟,此处不再详细描述。
利用预设的物体分类神经网络模型,对每个目标跟踪序列中每个前景图像可以得到每个前景图像中的物体分类属性信息,例如人(进一步还可以是男人或女人,达人或小孩等详细分类),大巴车,小轿车或非机动车等。物体分类属性信息对应的分类具体可以根据实际需要进行设置,例如,人可以分成男人或女人,也可以分成大人或小孩,还可以同时具有该两种分类,即男人和大人,此处不做具体限定。
需要说明的是,上面仅举例描述了属性分析结果中可能包括的几种目标跟踪序列的属性信息,如目标跟踪序列的颜色属性信息和目标跟踪序列的物体类别属性信息,可以理解的是,该属性分析结果中还可以包括其他类型的目标跟踪序列的属性信息,具体可以根据实际需要进行设置,例如,该属性分析结果中还包括每个目标跟踪序列中的目标方向轨迹属性信息,对每个目标跟踪序列进行属性分析,以获取各目标跟踪序列的属性分析结果的步骤还可以包括:根据每个目标跟踪序列中各前景图中目标的位置信息,可以确定目标的轨迹方向角,例如,目标是由南运动到北。
本发明实施例中,在得到属性分析结果之后,即可将所述属性分析结果保存到预设的结构化的目标属性数据结构中,得到目标结构化图像数据,该过程具体可以包括:为待处理图像中的每个目标跟踪序列分配标识信息;根据待处理图像中每个目标跟踪序列的标识信息、每个目标跟踪序列的属性信息和每个目标跟踪序列中每个前景图像,得到每个目标跟踪序列的数据;将每个目标跟踪序列的数据分别保存到预设的结构化的目标属性数据结构中,得到目标结构化图像数据,目标结构化图像数据包括所述待处理图像中每个目标跟踪序列的结构化图像数据。
具体的,对于待处理图像中的每个目标跟踪序列,可以按照预设规则分配标识信息,例如按照数字编号或字母编号分配标识信息,例如目标跟踪序列的身份标识号(IDentity,ID),具体如目标跟踪序列1或目标跟踪序列A,其中1或A即为目标跟踪序列的ID。
其中,将每个目标跟踪序列的数据分别保存到预设的结构化的目标属性数据结构中,得到目标结构化图像数据可以包括调用预设结构化数据存储接口将每个目标跟踪序列的数据分别保存到预设的结构化的目标属性数据结构中。该目标属性数据结构一个示例具体如下表1所示:
表1
需要说明的是,将每个目标跟踪序列的数据分别保存到预设的结构化的目标属性数据结构中,得到的目标结构化图像数据中还可以包括上述每个目标跟踪序列对应的背景图像,另外,目标跟踪序列中各前景帧中包括个前景帧的时间信息。
在上述得到目标结构化图像数据之后,即可将目标结构化图像数据存储在视频数据库中。这样对于新的需要处理的视频,就可以按照上述操作步骤实现视频的结构化存储,在视频数据库中可以根据筛选条件筛选相应视频内容。
因此,本发明实施例中,在获取目标筛选条件后,即可根据目标筛选条件在预设视频数据库中确定筛选目标跟踪序列,进一步的,根据目标筛选条件在预设视频数据库中确定筛选目标跟踪序列的步骤可以包括:
获取目标筛选条件中的关键词;在视频数据库中确定具有与关键词相同属性信息的目标跟踪序列,得到筛选目标跟踪序列。即筛选目标跟踪序列为视频数据库中具有与目标筛选条件中的关键词相同属性信息的目标跟踪序列。
例如,假设目标筛选条件中包括“红色”和“男人”的关键词,筛选时间范围为2018.3.1~2018.3.2,则根据该“红色”和“男人”的关键词在视频数据库中查找具有2018.3.1~2018.3.2时间段,具有“红色”和“男人”属性信息的目标跟踪序列,即得到筛选目标跟踪序列。
(2)从视频数据库中获取筛选目标跟踪序列的结构化图像数据,得到结构化图像数据;
在得到筛选目标跟踪序列之后,即可获取筛选目标跟踪序列的结构化图像数据,得到结构化图像数据。
103、对结构化图像数据进行视频合成,生成视频摘要。
由于视频数据库中还包括与每个目标跟踪序列对应的多个背景图像,因此多个背景图像中每个背景图像可以对应每个目标跟踪序列中预设帧数的前景图像;此时,对所述结构化图像数据进行视频合成,生成视频摘要具体可以包括:
(1)获取目标筛选条件中的目标合成密度。
该目标合成密度即表示在生成的视频摘要中每帧图像中目标的个数,例如,目标合成密度为3,则生成的视频摘要中每帧图像中包括3个目标。
(2)新建与目标合成密度对应的N个合成队列,N为正整数。
其中,N即等于该目标合成密度,例如目标合成密度为3,则N=3,新建3个合成队列。
(3)将筛选目标跟踪序列中的目标跟踪序列平均分配到N个合成队列。
假设待处理视频中的目标跟踪序列包括30个目标跟踪序列,则按照目标合成密度为3来分配,即每个合成队列分配有10个目标跟踪序列。
(4)将N个合成队列中对应的目标跟踪序列的前景图像依次贴合到对应的背景图像上,以生成视频摘要。
具体的,在将N个合成队列中对应的目标跟踪序列的前景图像,贴合在所述多个背景图像上时,每个合成队列中的每隔m个前景图像,对应多个背景图像中的一个背景图进行贴合,该m即为一个背景图像对应的前景图像的数量,例如1000,即标识,每个合成队列中的每隔1000个前景图像每次合成时的背景都是该一个背景图像,超过1000个后,切换背景图像。对于视频摘要的每一个合成图像,具体合成方法可以如下:N个合成队列的第一个前景图均贴合到对应的背景图像上合成结果视频的第一帧,N个合成队列新的第一个前景图贴合到对应的背景图像上合成结果视频的第二帧,以此类推,在第m+1个合成图像的合成时,便得到了最终的视频摘要的所有合成图像,根据视频摘要的所有合成图像,即可生成视频摘要。
本发明实施例中,由于对视频进行结构化存储,在用户重新选择筛选条件后,无需重新分析原始视频,可直接根据新的筛选条件读取视频数据库中结构化图像数据快速合成相应视频摘要。因此本发明实施例中方法还可以包括:获取生成视频摘要的新的筛选条件;根据新的筛选条件在预设视频数据库中确定新的筛选目标跟踪序列;从视频数据库中获取新的筛选目标跟踪序列的结构化图像数据,得到新的结构化图像数据;对新的结构化图像数据进行视频合成,生成新的视频摘要。具体的,该生成新的视频摘要的方式可以参考上述实施例中描述的方式,此处不再赘述。
本发明实施例通过获取生成视频摘要的目标筛选条件;根据目标筛选条件在预设视频数据库中查找结构化图像数据,得到结构化图像数据;对结构化图像数据进行视频合成,生成视频摘要。本发明实施例中由于视频数据库中保存视频图像的结构化图像数据,在用户检索相关视频时,可从结构化图像数据中快速筛选相关视频信息,生成视频摘要,极大的方便了用户对视频目标内容的定位,加快了视频摘要的生成过程,也极大的拓展了视频摘要的应用场景。
下面结合一具体应用场景对本发明实施例中视频摘要生成方法进行描述。
请参阅图4,图4为本发明实施例提供的视频摘要生成方法的另一流程示意图,该方法流程可以包括:
201、服务器获取生成视频摘要的目标筛选条件。
如图5所示为本发明实施例中一个具体场景示例图,该示例中,筛选选项中包括颜色选项、目标合成密度选项和目标类型选项,其中颜色选项选择的“不限制”(即不限制目标颜色),目标合成密度选项选择的“低”档位(表示在生成的视频摘要中每帧图像中目标的个数为3个),目标类型选线中选择的“人”。该筛选选项选择的内容即构成目标筛选条件。
202、服务器根据目标筛选条件在预设视频数据库中确定筛选目标跟踪序列。
服务器根据该目标筛选条件在视频数据库中查找具有具有“不限制颜色”、“人”属性信息的目标跟踪序列,即得到筛选目标跟踪序列,假设筛选目标跟踪序列有30个。
203、服务器从视频数据库中获取筛选目标跟踪序列的结构化图像数据,得到结构化图像数据。
在得到筛选目标跟踪序列之后,服务器即可获取筛选目标跟踪序列的结构化图像数据,得到结构化图像数据。
204、服务器对结构化图像数据进行视频合成,生成视频摘要。
由于图5中目标筛选条件中为“低”档位目标合成密度,即表示在生成的视频摘要中每帧图像中目标的个数为3个,此时,服务器对结构化图像数据进行视频合成,生成视频摘要具体包括,新建与目标合成密度对应的3个合成队列,按照目标合成密度为3来平均分配,即每个合成队列分配有30/3=10个目标跟踪序列。假设每个背景图像对应1000个前景图像,3个合成队列的第一个前景图均贴合到对应的背景图像上合成结果视频的第一帧,对于视频摘要的每一个合成图像,具体合成方法可以如下:3个合成队列新的第一个前景图贴合到对应的背景图像上合成结果视频的第二帧,以此类推,在第1001个合成图像的合成时,换下一个背景图像进行贴合,便得到了最终的视频摘要的所有合成图像,根据视频摘要的所有合成图像,即可生成视频摘要,如图5中生成的视频摘要的每帧图像中即包括3个目标人物,每帧图像中均标记每个目标对应的时间信息。
需要说明的是,如图5所示,本发明实施例中可以在显示视频摘要的界面中显示原始视频,也可以不显示原始视频,具体可以根据实际需要进行设置。
本发明实施例服务器通过获取生成视频摘要的目标筛选条件;服务器根据目标筛选条件在预设视频数据库中确定筛选目标跟踪序列,该视频数据库中保存有以目标跟踪序列为单位的结构化图像数据;服务器从视频数据库中获取筛选目标跟踪序列的结构化图像数据,得到结构化图像数据;服务器对结构化图像数据进行视频合成,生成视频摘要。本发明实施例中由于以视频数据库中以目标跟踪序列为单位的保存视频图像的结构化图像数据,在用户检索相关视频时,服务器可从结构化图像数据中快速筛选相关视频信息,生成视频摘要,极大的方便了用户对视频目标内容的定位,也极大的拓展了视频摘要的应用场景。
为便于更好的实施本发明实施例提供的视频摘要生成方法,本发明实施例还提供一种基于上述视频摘要生成方法的装置。其中名词的含义与上述视频摘要生成方法中相同,具体实现细节可以参考方法实施例中的说明。
请参阅图6,图6为本发明实施例提供的视频摘要生成装置的结构示意图,其中该视频摘要生成装置可以包括第一获取单元601、查找单元602和生成单元603,具体如下:
第一获取单元601,用于获取生成视频摘要的目标筛选条件;
查找单元602,用于根据目标筛选条件在预设视频数据库中查找结构化图像数据,得到结构化图像数据;
生成单元603,用于对结构化图像数据进行视频合成,生成视频摘要。
可选的,该查找单元602包括确定子单元和获取子单元,具体如下:
确定子单元,用于根据目标筛选条件在预设视频数据库中确定筛选目标跟踪序列,该视频数据库中保存有以目标跟踪序列为单位的结构化图像数据;
获取子单元,用于从视频数据库中获取所述筛选目标跟踪序列的结构化图像数据,得到结构化图像数据。
可选的,该装置还包括第二获取单元、属性分析单元和存储单元,具体如下:
第二获取单元,用于获取待处理视频;
属性分析单元,用于对待处理视频进行属性分析,以从待处理视频中确定目标跟踪序列,并获取待处理视频中各目标跟踪序列的目标结构化图像数据;
存储单元,用于将目标结构化图像数据存储在所述视频数据库中。
可选的,该属性分析单元包括获取子单元、前景提取子单元和属性分析子单元,具体如下:
获取子单元,用于获取待处理视频中的待处理图像;
前景提取子单元,用于对待处理图像进行前景提取,得到待处理图像中每帧图像的前景图像;
属性分析子单元,用于利用待处理图像的前景图像进行属性分析,以获取待处理图像中各目标跟踪序列的属性分析结果;
存储子单元,用于将属性分析结果保存到预设的结构化的目标属性数据结构中,得到目标结构化图像数据。
可选的,该属性分析子单元具体用于:
对待处理图像的前景图像进行目标跟踪,以获取待处理图像中的目标跟踪序列;
对每个目标跟踪序列进行属性分析,以获取各目标跟踪序列的属性分析结果,所述属性分析结果中包括每个目标跟踪序列的属性信息。
可选的,该属性分析结果中包括每个目标跟踪序列的颜色属性信息,该属性分析子单元具体用于:
根据预设的像素值与颜色的映射关系,确定每个目标跟踪序列中每个前景图像的像素点对应的颜色;
根据每个前景图像的像素点对应的颜色,统计各颜色在每个前景图像中对应的像素点个数;
根据各颜色在每个前景图像中对应的像素点个数,确定每个目标跟踪序列的颜色属性信息。
可选的,该属性分析子单元具体用于:
对每个目标跟踪序列,若目标颜色在目标前景图像中对应的像素点的个数达到所述目标前景图像中总像素点个数的第一预设比例,则确定该目标前景图像具有目标颜色的颜色属性;
若目标跟踪序列中第二预设比例的前景图像具有所述目标颜色的颜色属性,则确定该目标跟踪序列具有目标颜色的颜色属性。
可选的,该属性分析结果中包括每个目标跟踪序列中每个前景图像的物体类别属性信息,所述属性分析子单元具体用于:
利用预设的物体分类神经网络模型,对每个目标跟踪序列中每个前景图像进行物体类别分类,得到每个目标跟踪序列的物体类别属性信息。
可选的,该前景提取子单元具体用于:
将待处理图像中每帧图像转换为单通道灰度图;
提取待处理图像中每帧图像中预设类型的局部特征图;
根据每帧图像的单通道灰度图及每帧图像中的局部特征图,确定待处理图像中每帧图像的前景图像。
可选的,该前景提取子单元具体用于:
将每帧图像的单通道灰度图及每帧图像中的局部特征图,合成每帧图像的有效图像;
利用每帧图像的有效图像与预设的混合高斯模型进行匹配,得到待处理图像中每帧图像的前景图像。
可选的,该存储子单元具体用于:
为待处理图像中的每个目标跟踪序列分配标识信息;
根据待处理图像中每个目标跟踪序列的标识信息、每个目标跟踪序列的属性信息和每个目标跟踪序列中每个前景图像,得到每个目标跟踪序列的数据;
将每个目标跟踪序列的数据分别保存到预设的结构化的目标属性数据结构中,得到目标结构化图像数据,该目标结构化图像数据包括所述待处理图像中每个目标跟踪序列的结构化图像数据。
可选的,该获取子单元具体用于:
对待处理视频进行关键帧检测,得到待处理视频中的关键帧;
将关键帧作为所述待处理图像。
可选的,该确定子单元具体用于:
获取目标筛选条件中的关键词;
在视频数据库中确定具有与关键词相同属性信息的目标跟踪序列,得到筛选目标跟踪序列。
可选的,该视频数据库中还包括与每个目标跟踪序列对应的多个背景图像,该多个背景图像中每个背景图像对应每个目标跟踪序列中预设帧数的前景图像;该生成单元603具体用于:
获取目标筛选条件中的目标合成密度;
新建与目标合成密度对应的N个合成队列,N为正整数;
将筛选目标跟踪序列中的目标跟踪序列平均分配到N个合成队列;
将N个合成队列中对应的目标跟踪序列的前景图像依次贴合到对应的背景图像上,以生成视频摘要。
具体实施时,以上各个单元可以作为独立的实体来实现,也可以进行任意组合,作为同一或若干个实体来实现,以上各个单元的具体实施可参见前面的方法实施例,在此不再赘述。
本发明实施例第一获取单元601通过获取生成视频摘要的目标筛选条件;确定单元602根据目标筛选条件在预设视频数据库中查找结构化图像数据,得到结构化图像数据;生成单元603对结构化图像数据进行视频合成,生成视频摘要。本发明实施例中由于视频数据库中保存有视频图像的结构化图像数据,在用户检索相关视频时,可从结构化图像数据中快速筛选相关视频信息,生成视频摘要,极大的方便了用户对视频目标内容的定位,也极大的拓展了视频摘要的应用场景。
本发明实施例还提供一种服务器,如图7所示,其示出了本发明实施例所涉及的服务器的结构示意图,具体来讲:
该服务器可以包括一个或者一个以上处理核心的处理器701、一个或一个以上计算机可读存储介质的存储器702、电源703和输入单元704等部件。本领域技术人员可以理解,图7中示出的服务器结构并不构成对服务器的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。其中:
处理器701是该服务器的控制中心,利用各种接口和线路连接整个服务器的各个部分,通过运行或执行存储在存储器702内的软件程序和/或模块,以及调用存储在存储器702内的数据,执行服务器的各种功能和处理数据,从而对服务器进行整体监控。可选的,处理器701可包括一个或多个处理核心;优选的,处理器701可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作存储介质、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器701中。
存储器702可用于存储软件程序以及模块,处理器701通过运行存储在存储器702的软件程序以及模块,从而执行各种功能应用以及数据处理。存储器702可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作存储介质、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据服务器的使用所创建的数据等。此外,存储器702可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。相应地,存储器702还可以包括存储器控制器,以提供处理器701对存储器702的访问。
服务器还包括给各个部件供电的电源703,优选的,电源703可以通过电源管理存储介质与处理器701逻辑相连,从而通过电源管理存储介质实现管理充电、放电、以及功耗管理等功能。电源703还可以包括一个或一个以上的直流或交流电源、再充电存储介质、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。
该服务器还可包括输入单元704,该输入单元704可用于接收输入的数字或字符信息,以及产生与用户设置以及功能控制有关的键盘、鼠标、操作杆、光学或者轨迹球信号输入。
尽管未示出,服务器还可以包括显示单元等,在此不再赘述。具体在本实施例中,服务器中的处理器701会按照如下的指令,将一个或一个以上的应用程序的进程对应的可执行文件加载到存储器702中,并由处理器701来运行存储在存储器702中的应用程序,从而实现各种功能,如下:
获取生成视频摘要的目标筛选条件;根据目标筛选条件在预设视频数据库中查找结构化图像数据,得到结构化图像数据;对结构化图像数据进行视频合成,生成视频摘要。
本领域普通技术人员可以理解,上述实施例的各种方法中的全部或部分步骤可以通过指令来完成,或通过指令控制相关的硬件来完成,该指令可以存储于一计算机可读存储介质中,并由处理器进行加载和执行。
为此,本发明实施例提供一种存储介质,其中存储有多条指令,该指令能够被处理器进行加载,以执行本发明实施例所提供的任一种视频摘要生成方法中的步骤。例如,该指令可以执行如下步骤:
获取生成视频摘要的目标筛选条件;根据目标筛选条件在预设视频数据库中查找结构化图像数据,得到结构化图像数据;对结构化图像数据进行视频合成,生成视频摘要。
以上各个操作的具体实施可参见前面的实施例,在此不再赘述。
其中,该存储介质可以包括:只读存储器(ROM,Read Only Memory)、随机存取记忆体(RAM,Random Access Memory)、磁盘或光盘等。
由于该存储介质中所存储的指令,可以执行本发明实施例所提供的任一种视频摘要生成方法中的步骤,因此,可以实现本发明实施例所提供的任一种视频摘要生成方法所能实现的有益效果,详见前面的实施例,在此不再赘述。
以上对本发明实施例所提供的一种视频摘要生成方法、装置和存储介质进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。
Claims (13)
1.一种视频摘要生成方法,其特征在于,所述方法包括:
获取生成视频摘要的目标筛选条件,所述目标筛选条件包括目标合成密度;
根据所述目标筛选条件在预设视频数据库中确定筛选目标跟踪序列,所述视频数据库中保存有以所述目标跟踪序列为单位的结构化图像数据,所述结构化图像数据为以结构化数据的格式存储的数据;
从所述视频数据库中获取所述筛选目标跟踪序列的结构化图像数据,得到结构化图像数据;
获取所述目标筛选条件中的目标合成密度;
新建与所述目标合成密度对应的N个合成队列,N为正整数;
将所述筛选目标跟踪序列中的目标跟踪序列平均分配到所述N个合成队列;
将所述N个合成队列中对应的目标跟踪序列的前景图像依次贴合到对应的背景图像上,以生成视频摘要,所述视频数据库中还包括与每个目标跟踪序列对应的多个背景图像,所述多个背景图像中每个背景图像对应每个目标跟踪序列中预设帧数的前景图像。
2.根据权利要求1所述的视频摘要生成方法,其特征在于,在所述获取生成视频摘要的目标筛选条件之前,所述方法还包括:
获取待处理视频;
对所述待处理视频进行属性分析,以从所述待处理视频中确定目标跟踪序列,并获取所述待处理视频中各目标跟踪序列的目标结构化图像数据;
将所述目标结构化图像数据存储在所述视频数据库中。
3.根据权利要求2所述的视频摘要生成方法,其特征在于,所述对所述待处理视频进行属性分析,以从所述待处理视频中确定目标跟踪序列,并获取所述待处理视频中各目标跟踪序列的目标结构化图像数据,包括:
获取所述待处理视频中的待处理图像;
对所述待处理图像进行前景提取,得到所述待处理图像中每帧图像的前景图像;
利用所述待处理图像的前景图像进行属性分析,以获取所述待处理图像中各目标跟踪序列的属性分析结果;
将所述属性分析结果保存到预设的结构化的目标属性数据结构中,得到所述目标结构化图像数据。
4.根据权利要求3所述的视频摘要生成方法,其特征在于,所述利用所述待处理图像的前景图像进行属性分析,以获取所述待处理图像中各目标跟踪序列的属性分析结果,包括:
对所述待处理图像的前景图像进行目标跟踪,以获取所述待处理图像中的目标跟踪序列;
对每个目标跟踪序列进行属性分析,以获取所述属性分析结果,所述属性分析结果中包括每个目标跟踪序列的属性信息。
5.根据权利要求4所述的视频摘要生成方法,其特征在于,所述属性分析结果中包括每个目标跟踪序列的颜色属性信息,所述对每个目标跟踪序列进行属性分析,以获取所述属性分析结果,包括:
根据预设的像素值与颜色的映射关系,确定每个目标跟踪序列中每个前景图像的像素点对应的颜色;
根据所述每个前景图像的像素点对应的颜色,统计各颜色在每个前景图像中对应的像素点个数;
根据各颜色在每个前景图像中对应的像素点个数,确定每个目标跟踪序列的颜色属性信息。
6.根据权利要求5所述的视频摘要生成方法,其特征在于,所述根据各颜色在每个前景图像中对应的像素点个数,确定每个目标跟踪序列的颜色属性信息,包括:
对每个目标跟踪序列,若目标颜色在目标前景图像中对应的像素点的个数达到所述目标前景图像中总像素点个数的第一预设比例,则确定该目标前景图像具有所述目标颜色的颜色属性;
若目标跟踪序列中第二预设比例的前景图像具有所述目标颜色的颜色属性,则确定该目标跟踪序列具有所述目标颜色的颜色属性。
7.根据权利要求4所述的视频摘要生成方法,其特征在于,所述属性分析结果中包括每个目标跟踪序列中每个前景图像的物体类别属性信息,所述对每个目标跟踪序列进行属性分析,以获取所述属性分析结果,包括:
利用预设的物体分类神经网络模型,对每个目标跟踪序列中每个前景图像进行物体类别分类,得到每个目标跟踪序列的物体类别属性信息。
8.根据权利要求3所述的视频摘要生成方法,其特征在于,所述对所述待处理图像进行前景提取,得到所述待处理图像中每帧图像的前景图像,包括:
将所述待处理图像中每帧图像转换为单通道灰度图;
提取所述待处理图像中每帧图像中预设类型的局部特征图;
根据所述每帧图像的单通道灰度图及每帧图像中的局部特征图,确定所述待处理图像中每帧图像的前景图像。
9.根据权利要求8所述的视频摘要生成方法,其特征在于,所述根据所述每帧图像的单通道灰度图及每帧图像中的局部特征图,确定所述待处理图像中每帧图像的前景图像,包括:
将每帧图像的单通道灰度图及每帧图像中的局部特征图,合成每帧图像的有效图像;
利用每帧图像的有效图像与预设的混合高斯模型进行匹配,得到所述待处理图像中每帧图像的前景图像。
10.根据权利要求4所述的方法,其特征在于,所述将所述属性分析结果保存到预设的结构化的目标属性数据结构中,得到所述目标结构化图像数据,包括:
为所述待处理图像中的每个目标跟踪序列分配标识信息;
根据所述待处理图像中每个目标跟踪序列的标识信息、每个目标跟踪序列的属性信息和所述每个目标跟踪序列中每个前景图像,得到每个目标跟踪序列的数据;
将每个目标跟踪序列的数据分别保存到预设的结构化的目标属性数据结构中,得到目标结构化图像数据,所述目标结构化图像数据包括所述待处理图像中每个目标跟踪序列的结构化图像数据。
11.根据权利要求3所述的视频摘要生成方法,其特征在于,所述获取所述待处理视频中的待处理图像,包括:
对所述待处理视频进行关键帧检测,得到所述待处理视频中的关键帧;
将所述关键帧作为所述待处理图像。
12.一种视频摘要生成装置,其特征在于,所述装置包括:
第一获取单元,用于获取生成视频摘要的目标筛选条件,所述目标筛选条件包括目标合成密度;
查找单元,用于根据所述目标筛选条件在预设视频数据库中确定筛选目标跟踪序列,所述视频数据库中保存有以所述目标跟踪序列为单位的结构化图像数据,所述结构化图像数据为以结构化数据的格式存储的数据;从所述视频数据库中获取所述筛选目标跟踪序列的结构化图像数据,得到结构化图像数据;
生成单元,用于获取所述目标筛选条件中的目标合成密度;新建与所述目标合成密度对应的N个合成队列,N为正整数;将所述筛选目标跟踪序列中的目标跟踪序列平均分配到所述N个合成队列;将所述N个合成队列中对应的目标跟踪序列的前景图像依次贴合到对应的背景图像上,以生成视频摘要,所述视频数据库中还包括与每个目标跟踪序列对应的多个背景图像,所述多个背景图像中每个背景图像对应每个目标跟踪序列中预设帧数的前景图像。
13.一种存储介质,其特征在于,所述存储介质存储有多条指令,所述指令适于处理器进行加载,以执行权利要求1至11任一项所述视频摘要生成方法中的步骤。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810955587.XA CN110166851B (zh) | 2018-08-21 | 2018-08-21 | 一种视频摘要生成方法、装置和存储介质 |
EP19852152.8A EP3843418B1 (en) | 2018-08-21 | 2019-08-09 | Video abstract generating method and apparatus, computing device, and storage medium |
PCT/CN2019/100051 WO2020038243A1 (zh) | 2018-08-21 | 2019-08-09 | 一种视频摘要生成方法、装置、计算设备和存储介质 |
US17/016,638 US11347792B2 (en) | 2018-08-21 | 2020-09-10 | Video abstract generating method, apparatus, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810955587.XA CN110166851B (zh) | 2018-08-21 | 2018-08-21 | 一种视频摘要生成方法、装置和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110166851A CN110166851A (zh) | 2019-08-23 |
CN110166851B true CN110166851B (zh) | 2022-01-04 |
Family
ID=67645152
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810955587.XA Active CN110166851B (zh) | 2018-08-21 | 2018-08-21 | 一种视频摘要生成方法、装置和存储介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11347792B2 (zh) |
EP (1) | EP3843418B1 (zh) |
CN (1) | CN110166851B (zh) |
WO (1) | WO2020038243A1 (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113569605A (zh) * | 2021-01-17 | 2021-10-29 | 南京大学 | 视频信息处理方法、装置、电子设备及存储介质 |
CN114394100B (zh) * | 2022-01-12 | 2024-04-05 | 深圳力维智联技术有限公司 | 一种无人巡逻车控制***及无人车 |
CN114613355B (zh) * | 2022-04-07 | 2023-07-14 | 抖音视界有限公司 | 视频处理方法、装置、可读介质及电子设备 |
CN116701707B (zh) * | 2023-08-08 | 2023-11-10 | 成都市青羊大数据有限责任公司 | 一种教育大数据管理*** |
CN117061189B (zh) * | 2023-08-26 | 2024-01-30 | 上海六坊信息科技有限公司 | 一种基于数据加密的数据包传输方法及*** |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1462561A (zh) * | 2001-05-08 | 2003-12-17 | 皇家菲利浦电子有限公司 | 用于多视图合成的方法 |
CN101561932A (zh) * | 2009-05-12 | 2009-10-21 | 北京交通大学 | 一种动态复杂背景下的实时运动目标检测方法和装置 |
CN104394353A (zh) * | 2014-10-14 | 2015-03-04 | 浙江宇视科技有限公司 | 视频浓缩方法及装置 |
CN104754248A (zh) * | 2013-12-30 | 2015-07-01 | 浙江大华技术股份有限公司 | 一种获取目标快照的方法及装置 |
CN106101578A (zh) * | 2016-06-27 | 2016-11-09 | 上海小蚁科技有限公司 | 图像合成方法和设备 |
CN106937120A (zh) * | 2015-12-29 | 2017-07-07 | 北京大唐高鸿数据网络技术有限公司 | 基于对象的监控视频浓缩方法 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7113185B2 (en) * | 2002-11-14 | 2006-09-26 | Microsoft Corporation | System and method for automatically learning flexible sprites in video layers |
CN1795506B (zh) * | 2003-05-26 | 2011-04-20 | 皇家飞利浦电子股份有限公司 | 用于产生视听节目内容的视听概要的***和方法 |
US20120173577A1 (en) * | 2010-12-30 | 2012-07-05 | Pelco Inc. | Searching recorded video |
CN102708182B (zh) * | 2012-05-08 | 2014-07-02 | 浙江捷尚视觉科技有限公司 | 一种快速视频浓缩摘要方法 |
CN102930061B (zh) * | 2012-11-28 | 2016-01-06 | 安徽水天信息科技有限公司 | 一种基于运动目标检测的视频摘要方法 |
US20150104149A1 (en) * | 2013-10-15 | 2015-04-16 | Electronics And Telecommunications Research Institute | Video summary apparatus and method |
CN103617234B (zh) * | 2013-11-26 | 2017-10-24 | 公安部第三研究所 | 主动式视频浓缩装置及方法 |
CN208027742U (zh) * | 2014-07-28 | 2018-10-30 | 菲力尔洛莱施公司 | 视频浓缩*** |
CN104244113B (zh) * | 2014-10-08 | 2017-09-22 | 中国科学院自动化研究所 | 一种基于深度学习技术的视频摘要生成方法 |
CN104581437B (zh) * | 2014-12-26 | 2018-11-06 | 中通服公众信息产业股份有限公司 | 一种视频摘要生成及视频回溯的方法及*** |
CN104717573B (zh) * | 2015-03-05 | 2018-04-13 | 广州市维安电子技术有限公司 | 一种视频摘要的生成方法 |
CN105187801B (zh) * | 2015-09-17 | 2021-07-27 | 桂林远望智能通信科技有限公司 | 一种摘要视频的生成***及方法 |
CN105262932B (zh) * | 2015-10-20 | 2018-06-29 | 深圳市华尊科技股份有限公司 | 一种视频处理的方法及终端 |
US10728194B2 (en) * | 2015-12-28 | 2020-07-28 | Facebook, Inc. | Systems and methods to selectively combine video streams |
KR102588524B1 (ko) * | 2016-08-01 | 2023-10-13 | 삼성전자주식회사 | 전자 장치 및 그의 동작 방법 |
CN106354816B (zh) * | 2016-08-30 | 2019-12-13 | 东软集团股份有限公司 | 一种视频图像处理方法及装置 |
US10720182B2 (en) * | 2017-03-02 | 2020-07-21 | Ricoh Company, Ltd. | Decomposition of a video stream into salient fragments |
CN107291910A (zh) * | 2017-06-26 | 2017-10-24 | 图麟信息科技(深圳)有限公司 | 一种视频片段结构化查询方法、装置及电子设备 |
CN107943837B (zh) * | 2017-10-27 | 2022-09-30 | 江苏理工学院 | 一种前景目标关键帧化的视频摘要生成方法 |
-
2018
- 2018-08-21 CN CN201810955587.XA patent/CN110166851B/zh active Active
-
2019
- 2019-08-09 EP EP19852152.8A patent/EP3843418B1/en active Active
- 2019-08-09 WO PCT/CN2019/100051 patent/WO2020038243A1/zh unknown
-
2020
- 2020-09-10 US US17/016,638 patent/US11347792B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1462561A (zh) * | 2001-05-08 | 2003-12-17 | 皇家菲利浦电子有限公司 | 用于多视图合成的方法 |
CN101561932A (zh) * | 2009-05-12 | 2009-10-21 | 北京交通大学 | 一种动态复杂背景下的实时运动目标检测方法和装置 |
CN104754248A (zh) * | 2013-12-30 | 2015-07-01 | 浙江大华技术股份有限公司 | 一种获取目标快照的方法及装置 |
CN104394353A (zh) * | 2014-10-14 | 2015-03-04 | 浙江宇视科技有限公司 | 视频浓缩方法及装置 |
CN106937120A (zh) * | 2015-12-29 | 2017-07-07 | 北京大唐高鸿数据网络技术有限公司 | 基于对象的监控视频浓缩方法 |
CN106101578A (zh) * | 2016-06-27 | 2016-11-09 | 上海小蚁科技有限公司 | 图像合成方法和设备 |
Also Published As
Publication number | Publication date |
---|---|
US11347792B2 (en) | 2022-05-31 |
CN110166851A (zh) | 2019-08-23 |
WO2020038243A1 (zh) | 2020-02-27 |
EP3843418A1 (en) | 2021-06-30 |
EP3843418B1 (en) | 2024-06-05 |
EP3843418A4 (en) | 2021-10-13 |
US20200409996A1 (en) | 2020-12-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110166851B (zh) | 一种视频摘要生成方法、装置和存储介质 | |
JP5797789B2 (ja) | 準複製画像検索のための方法およびシステム | |
US8560551B2 (en) | Image search apparatus and image search method | |
JP4340367B2 (ja) | 画像分類装置およびその装置としてコンピュータを機能させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体 | |
JP2004361987A (ja) | 画像検索システム、画像分類システム、画像検索プログラム及び画像分類プログラム、並びに画像検索方法及び画像分類方法 | |
JP2010225172A (ja) | 画像グループの表現方法、画像グループの記述子、画像グループの探索方法、コンピュータ読み取り可能な記憶媒体およびコンピュータシステム | |
CN102968637A (zh) | 一种复杂背景图像文字分割方法 | |
CN110188217A (zh) | 图像查重方法、装置、设备和计算机可读储存介质 | |
CN110619284B (zh) | 一种视频场景划分方法、装置、设备及介质 | |
CN103399870A (zh) | 一种基于分类驱动的可视化词袋特征权重化方法和*** | |
CN114066718A (zh) | 一种图像风格迁移方法、装置、存储介质及终端 | |
CN115512251A (zh) | 基于双分支渐进式特征增强的无人机低照度目标跟踪方法 | |
CN107315984B (zh) | 一种行人检索的方法及装置 | |
CN112883827B (zh) | 图像中指定目标的识别方法、装置、电子设备和存储介质 | |
CN111080748B (zh) | 基于互联网的图片自动合成*** | |
CN110826545A (zh) | 一种视频类别识别的方法及相关装置 | |
CN106548118A (zh) | 影院放映内容的识别检索方法及*** | |
CN114449362B (zh) | 视频封面的选取方法、装置、设备及存储介质 | |
KR102444172B1 (ko) | 영상 빅 데이터의 지능적 마이닝 방법과 처리 시스템 | |
US20220222967A1 (en) | Retrieval device, control method, and non-transitory storage medium | |
CN103530656B (zh) | 基于隐结构学习的图像摘要生成方法 | |
CN114979742B (zh) | 视频处理方法、装置、设备及存储介质 | |
Mohanty et al. | A frame-based decision pooling method for video classification | |
CN117177004B (zh) | 内容帧的提取方法、装置、设备及存储介质 | |
CN113536035B (zh) | 基于代表性和特异性得分的非监督监控视频摘要生成方法及生成器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |