CN105930402A - 基于卷积神经网络的视频检索方法及*** - Google Patents
基于卷积神经网络的视频检索方法及*** Download PDFInfo
- Publication number
- CN105930402A CN105930402A CN201610237628.2A CN201610237628A CN105930402A CN 105930402 A CN105930402 A CN 105930402A CN 201610237628 A CN201610237628 A CN 201610237628A CN 105930402 A CN105930402 A CN 105930402A
- Authority
- CN
- China
- Prior art keywords
- convolutional layer
- layer
- video
- convolutional
- computation model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/73—Querying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Library & Information Science (AREA)
- Computational Linguistics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于卷积神经网络的视频检索方法及***,所述方法包括:首先构建基于卷积神经网络的计算模型;通过图像数据对计算模型进行训练,得到优化计算模型;去除模型中的分类器,得到提取计算模型;对已有视频资源进行转场帧的提取,并通过提取计算模型提取得到转场帧的转场特征,建立转场特征数据库;将待检索的视频进行转场帧的提取得到转场特征,将转场特征在转场特征数据库中进行检索,得到视频的检索结果。所述基于卷积神经网络的视频检索方法及***通过将视频内的转场帧作为数据处理的对象,不仅提高了检索过程的鲁棒性,而且去除了冗余信息;通过基于卷积神经网络的计算模型进行特征的提取,提高了视频检索的速度和准确性。
Description
技术领域
本发明涉及卷积神经网络技术领域,特别是指一种基于卷积神经网络的视频检索方法及***。
背景技术
随着互联网及多媒体技术的不断发展,人们越来越依赖于通过网络检索获取想要得到的信息,例如通过网络检索获取视频信息。但是由于网络中存在数量巨大的视频文件和相关内容,而用户在检索时通常都是想要获取某一个单一的视频,如何从海量的视频资源中,快速地查找到想要的视频是目前用户进行视频检索的难点。
目前,比较常用的方法一般是根据视频的标题或者人为预先在视频中手动设置的标签进行视频检索,但是这种方法存在一定的局限性,有时并不能检索得到用户满意的结果。例如:检索某一个视频的名字,由于名字的重复、语种的差异用户常常检索得到的结果还是一大堆视频,无法准确得到想要的视频。而且,针对某些特殊情形,用户有时候并不知道想要检索的视频的标题,此时用户将无法实现检索。例如:用户已有部分视频内容或者低版本的视频文件,而想要检索完整的视频或者高版本的视频文件,但是又不知道视频的标题,此时,现有的检索方法均不能较好的实现视频检索的目的。
发明内容
有鉴于此,本发明的目的在于提出一种基于卷积神经网络的视频检索方法及***,能够大大提高视频检索的速度和准确性。
基于上述目的本发明提供的一种基于卷积神经网络的视频检索方法,包括:
根据视频的检索需求,构建基于卷积神经网络的用于分类的计算模型,所述计算模型包括卷积层、池化层、全连接层以及分类器;
通过图像数据对所述计算模型进行训练,得到优化计算模型,去除优化计算模型中的分类器,得到提取计算模型;
对已有视频资源进行转场帧的提取,并通过所述提取计算模型提取得到转场帧的转场特征,建立转场特征数据库;
将待检索的视频进行转场帧的提取,通过提取计算模型提取得到视频的转场特征,将所述转场特征在所述转场特征数据库中进行检索,得到视频的检索结果。
可选的,所述基于卷积神经网络的用于分类的计算模型包括依次连接的卷积层C1、卷积层C2、池化层P2、卷积层C3、池化层P3、卷积层C4、卷积层C5、卷积层C6、池化层P6、全连接层fc7、全连接层fc8以及分类器。
进一步,所述6个卷积层的核大小均不大于5×5,且所述卷积层C1的核大小为3×3,卷积层C2的核大小为3×3。
进一步,所述卷积层C3的核大小为5×5,所述池化层P2、池化层P3、卷积层C4、卷积层C5、卷积层C6、池化层P6的核大小均为3×3;
所述卷积层C1、卷积层C2、卷积层C3、卷积层C4、卷积层C5、卷积层C6的步数均为1,所述池化层P2、池化层P3、池化层P6的步数均为2;
所述卷积层C1、卷积层C2、卷积层C4、卷积层C5、卷积层C6的pad值均为1,所述卷积层C3的pad值为2,所述池化层P2、池化层P3、池化层P6的pad值为0;
所述卷积层C1、卷积层C2的卷积核的个数均为96个,所述卷积层C3、卷积层C6的卷积核的个数均为256个,所述卷积层C4、卷积层C5的卷积核的个数均为384个。
可选的,所述全连接层fc7、全连接层fc8的节点数目分别为4096、1000;且所述全连接层fc7采用dropout方式进行数据处理;
所述分类器为softmax分类器。
可选的,所述卷积层C1、卷积层C2、卷积层C3、卷积层C4、卷积层C5、卷积层C6以及所述全连接层fc7均采用激活函数LEAKY RELU进行数据的激活处理。
可选的,所述进行转场帧的提取的方法为:
按照预设的算法,判断所述当前视频帧的前后两帧Y平面的灰度直方图之差是否大于预设的视频阈值,若是,则当前视频帧为转场帧,否则,当前视频帧不是转场帧;
算法公式如下:
其中,所述Hp[i]、Hn[i]分别为当前视频帧的前一帧和后一帧的Y平面的灰度直方图对应的数值,T为预设的视频阈值。
进一步,所述预设的视频阈值T的计算公式为:
T=width*height/8,其中,width和height分别为视频帧的宽度和高度。
本发明还提供了一种基于卷积神经网络的视频检索***,包括:
构建模块,用于根据视频的检索需求,构建基于卷积神经网络的用于分类的计算模型,将构建的计算模型发送给训练模块,所述计算模型包括卷积层、池化层、全连接层以及分类器;
训练模块,用于接收所述构建模块发送的计算模型,通过图像数据对所述计算模型进行训练,得到优化计算模型,去除优化计算模型中的分类器,得到提取计算模型;将提取计算模型发送给数据库模块和检索模块;
数据库模块,用于接收所述训练模块发送的提取计算模型,对已有视频资源进行转场帧的提取,并通过所述提取计算模型提取得到转场帧的转场特征,建立转场特征数据库;
检索模块,用于接收所述训练模块发送的提取计算模型,将待检索的视频进行转场帧的提取,通过提取计算模型提取得到视频的转场特征,将所述转场特征在所述数据库模块中的转场特征数据库中进行检索,得到视频的检索结果。
可选的,所述基于卷积神经网络的用于分类的计算模型包括依次连接的卷积层C1、卷积层C2、池化层P2、卷积层C3、池化层P3、卷积层C4、卷积层C5、卷积层C6、池化层P6、全连接层fc7、全连接层fc8以及分类器。
进一步,所述6个卷积层的核大小均不大于5×5,且所述卷积层C1的核大小为3×3,卷积层C2的核大小为3×3。
进一步,所述卷积层C3的核大小为5×5,所述池化层P2、池化层P3、卷积层C4、卷积层C5、卷积层C6、池化层P6的核大小均为3×3;
所述卷积层C1、卷积层C2、卷积层C3、卷积层C4、卷积层C5、卷积层C6的步数均为1,所述池化层P2、池化层P3、池化层P6的步数均为2;
所述卷积层C1、卷积层C2、卷积层C4、卷积层C5、卷积层C6的pad值均为1,所述卷积层C3的pad值为2,所述池化层P2、池化层P3、池化层P6的pad值为0;
所述卷积层C1、卷积层C2的卷积核的个数均为96个,所述卷积层C3、卷积层C6的卷积核的个数均为256个,所述卷积层C4、卷积层C5的卷积核的个数均为384个。
可选的,所述全连接层fc7、全连接层fc8的节点数目分别为4096、1000;且所述全连接层fc7采用dropout方式进行数据处理;
所述分类器为softmax分类器。
可选的,所述卷积层C1、卷积层C2、卷积层C3、卷积层C4、卷积层C5、卷积层C6以及所述全连接层fc7均采用激活函数LEAKY RELU进行数据的激活处理。
可选的,所述进行转场帧的提取的方法为:
按照预设的算法,判断所述当前视频帧的前后两帧Y平面的灰度直方图之差是否大于预设的视频阈值,若是,则当前视频帧为转场帧,否则,当前视频帧不是转场帧;
算法公式如下:
其中,所述Hp[i]、Hn[i]分别为当前视频帧的前一帧和后一帧的Y平面的灰度直方图对应的数值,T为预设的视频阈值。
进一步,所述预设的视频阈值T的计算公式为:
T=width*height/8,其中,width和height分别为视频帧的宽度和高度。
从上面所述可以看出,所述基于卷积神经网络的视频检索方法及***通过建立基于卷积神经网络的用于分类的计算模型,去除计算模型中的分类器,进而得到基于卷积神经网络的提取计算模块,将现有所有的视频资源根据所述提取计算模块提取得到转场帧的转场特征,并建立转场特征数据库,最后通过所述转场特征数据库可以实现视频的快速检索。所述基于卷积神经网络的视频检索方法及***通过将视频内的转场帧作为数据处理的对象,不仅提高了检索过程的鲁棒性,而且去除了冗余信息;通过采用基于卷积神经网络的计算模型进行特征的提取,大大提高了视频检索的速度和准确性。
附图说明
图1为本发明提供的基于卷积神经网络的视频检索方法的实施例的流程图;
图2为本发明提供的卷积神经网络计算模型的结构示意图;
图3为本发明提供的基于卷积神经网络的视频检索***的实施例的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明进一步详细说明。
需要说明的是,本发明实施例中所有使用“第一”和“第二”的表述均是为了区分两个相同名称非相同的实体或者非相同的参量,可见“第一”“第二”仅为了表述的方便,不应理解为对本发明实施例的限定,后续实施例对此不再一一说明。
参照图1所示,为本发明提供的基于卷积神经网络的视频检索方法的实施例的流程图。所述基于卷积神经网络的视频检索方法,包括:
步骤101,根据视频的检索需求,构建基于卷积神经网络的用于分类的计算模型,所述计算模型包括卷积层、池化层、全连接层以及分类器;
其中,所述卷积神经网络(Convolutional Neural Network,CNN)是近年发展起来,并引起广泛重视的一种高效识别方法。目前,卷积神经网络已经成为众多科学领域的研究热点之一,特别是在模式分类领域,由于该网络避免了对图像的复杂前期预处理,可以直接输入原始图像,因而得到了更为广泛的应用。同时根据卷积神经网络的分类特性,还可以扩展到其他应用领域中,例如:本发明中用于视频或图片特征的提取。所述基于卷积神经网络的用于分类的计算模型是指用于进行特征提取并最终实现分类的一类计算模型。其计算模型中包含多个卷积层、池化层以及全连接层,所述卷积层用于特征的提取,池化层用于特征数据的降维,也即在保证数据有效性的基础上大大减少数据量,全连接层实现数据映射,分类器用于实现特征的分类。
步骤102,通过图像数据对所述计算模型进行训练,得到优化计算模型,去除优化计算模型中的分类器,得到提取计算模型;
其中,所述图像数据通常为现有图像数据库中的图像数据,例如:imagenet数据库。通过迭代训练,逐步完成使得计算模型完成自我学习的过程,称为优化的计算模型。将模型最后的分类器去除后,剩余的计算模型只能实现图片或视频特征的提取,也即得到一个训练后的提取计算模型。
步骤103,对已有视频资源进行转场帧的提取,并通过所述提取计算模型提取得到转场帧的转场特征,建立转场特征数据库;
其中,将所有能够获得的视频通过所述提取计算模型提取得到转场特征后,建立转场特征数据库,当用户后续进行检索时,可以通过转场特征实现视频的检索。所述转场特征数据库通常只需要建立一次,就能够实现后续所有视频的检索,而且,在其他相关领域中所述转场特征数据库也能够重复使用。
步骤104,将待检索的视频进行转场帧的提取,通过提取计算模型提取得到视频的转场特征,将所述转场特征在所述转场特征数据库中进行检索,得到视频的检索结果。
其中,待检索的视频通常为残缺的视频、部分视频、或者较低版本的视频等,而用户想要通过这些视频检索得到更好的、完整的视频。将待检索的视频同样通过所述提取计算模型提取得到视频的转场特征,然后在步骤103中已建立的转场特征数据库中检索,能够得到与待检索的视频相关的视频结果。
由上述实施例可知,所述基于卷积神经网络的视频检索方法通过建立基于卷积神经网络的用于分类的计算模型,将训练后的计算模型中的分类器去除后,能够得到基于卷积神经网络的提取计算模块,将所有的视频资源根据所述提取计算模块提取得到转场帧的转场特征,并建立转场特征数据库,最后通过所述转场特征数据库可以实现视频的快速检索。所述基于卷积神经网络的视频检索方法及***通过将视频内的转场帧作为数据处理的对象,不仅提高了检索过程的鲁棒性,而且去除了冗余信息;通过采用基于卷积神经网络的计算模型进行特征的提取,大大提高了视频检索的速度和准确性。
需要说明的是:所述视频检索的方法不仅仅用于视频的检索,同样适用于图片、音频等多媒体文件的检索,只需要相应的建立多媒体的特征数据库。
在一些优选的实施例中,所述基于卷积神经网络的用于分类的计算模型包括依次连接的卷积层C1、卷积层C2、池化层P2、卷积层C3、池化层P3、卷积层C4、卷积层C5、卷积层C6、池化层P6、全连接层fc7、全连接层fc8以及分类器。这样,通过前端两个卷积层的连续特征提取,能够进一步提高计算模型的特征提取的效率和速度。
优选的,所述池化层采用平均值进行池化处理。
可选的,在本发明一个实施例中,所述计算模型采用2个全连接层,最后的全连接层fc8输出特征为1000维特征。并且为了防止过拟合,全连接层中采用了dropout的方式。训练时采用softmax分类器。
完成上述计算模型的设计后,利用ImageNet图像数据库对上述网络进行分类训练。训练迭代次数为30万次。完成训练后,将上述模型中的softmax层去掉,利用模型中其他部分进行特征提取工作,特征输出为模型中的全连接层fc8。
建立视频数据库:对所有现有视频资源,依次进行转场帧提取,之后利用训练好的模型(去除softmax层)对转场帧进行特征提取,并保存,这样一个视频会得到一个特征向量。将所有视频的特征向量进行保存,以便后续检索时应用。
检索:对于待检索的视频,首先进行转场帧提取,之后利用训练好的模型进行特征提取,最后利用kd tree算法,根据已提取的特征以及整个视频库的特征进行快速检索。
在另一些优选的实施例中,所述6个卷积层的核大小均不大于5×5,且所述卷积层C1的核大小为3×3,卷积层C2的核大小为3×3。这样,依次连接的卷积层由于具有较小的核,能够更有效地提取视频或图片的特征数据,同时还减少了神经网络计算模型的参数,对于提升特征提取的速度以及防止过度拟合有较大的作用。
进一步,所述卷积层C3的核大小为5×5,所述池化层P2、池化层P3、卷积层C4、卷积层C5、卷积层C6、池化层P6的核大小均为3×3;
所述卷积层C1、卷积层C2、卷积层C3、卷积层C4、卷积层C5、卷积层C6的步数均为1,所述池化层P2、池化层P3、池化层P6的步数均为2;
所述卷积层C1、卷积层C2、卷积层C4、卷积层C5、卷积层C6的pad值均为1,所述卷积层C3的pad值为2,所述池化层P2、池化层P3、池化层P6的pad值为0;
所述卷积层C1、卷积层C2的卷积核的个数均为96个,所述卷积层C3、卷积层C6的卷积核的个数均为256个,所述卷积层C4、卷积层C5的卷积核的个数均为384个。
其中,所述卷积层的步数指卷积层的核每次移动的步长,所述pad值是指在输入数据的周围是否添加一圈数据参与运算,pad值的大小也即添加数据的圈数。这样,能够进一步提高计算模型的处理效率和速度,进而提高视频特征提取的效率。
在本发明一些较佳的实施例中,所述全连接层fc7、全连接层fc8的节点数目分别为4096、1000;且所述全连接层fc7采用dropout方式进行数据处理;所述分类器为softmax分类器。这里,所述的节点数目也可以理解为特征数目。所述dropout方式是通过随机开启一定数目的数据,而将剩下的数据丢弃,这样能够有效地防止数据的过拟合,进而提高特征提取的速度和效率。
进一步,所述卷积层C1、卷积层C2、卷积层C3、卷积层C4、卷积层C5、卷积层C6以及所述全连接层fc7均采用激活函数LEAKY RELU进行数据的激活处理。所述激活函数是将上一次的输出数据通过激活函数中的算法计算得到新的输出结果,将所述新的输出结果作为下一层的输入数据。同时,本发明所采用的激活函数LEAKY RELU相比于传统的激活函数RELU,在函数值小于零时,也具有一定的输出值,也即使得函数值小于零这一部分的数据也可以参与训练过程。这里,当函数值小于0时,输出值为输入值乘以一个系数a,所述系数a优选采用固定值。
在本发明可选的实施例中,所述进行转场帧的提取的方法为:
按照预设的算法,判断所述当前视频帧的前后两帧Y平面的灰度直方图之差是否大于预设的视频阈值,若是,则当前视频帧为转场帧,否则,当前视频帧不是转场帧;
算法公式如下:
其中,所述Hp[i]、Hn[i]分别为当前视频帧的前一帧和后一帧的Y平面的灰度直方图对应的数值,T为预设的视频阈值。
对于输入的视频,考虑到视频中含有大量的帧信息,如果对视频的每一个帧都进行检测,则会非常耗时。故本发明首先对视频的重要帧进行提取。这里的重要帧是指能够很好的代表视频内容的帧。在视频中,一般关键帧可以表示视频的大致内容,但考虑到关键帧在多次编码后会发生变化,为了提高***的鲁棒性,本发明将视频内的转场帧作为处理对象,保证了鲁棒性的同时,去除了冗余信息,最终提高了视频检索的准确率和速度。
进一步,所述预设的视频阈值T的计算公式为:
T=width*height/8,其中,width和height分别为视频帧的宽度和高度。
可选的,本发明准备训练样本约130万张图像,对卷积神经网络进行训练,获得优化计算模型。然后利用模型对网络中现有的视频库进行特征提取并建库。其中训练模型中卷积层采用标准偏差为0.01的高斯分布进行初始化。LEAKYRELU函数的a参数为0.01。全连接层中参数采用标准偏差为0.002的高斯分布进行初始化。dropout模块的参数为0.5。训练过程采用反向传播算法(BP算法)进行参数的训练及更新。本发明中一共训练30万次迭代。
参照图2所示,为本发明提供的基于卷积神经网络的计算模型的结构示意图。所述基于卷积神经网络的计算模型包括:依次连接的卷积层C1、卷积层C2、池化层P2、卷积层C3、池化层P3、卷积层C4、卷积层C5、卷积层C6、池化层P6、全连接层fc7、全连接层fc8以及分类器SVM。所有卷积层以及全连接层fc7均通过激活函数LEAKY RELU进行数据的处理,使得前一层的数据能够向下一层传递。且所述全连接层fc7采用dropout方式进行数据处理。
参照图3所示,为本发明提供的基于卷积神经网络的视频检索***的实施例的结构示意图。所述基于卷积神经网络的视频检索***包括:
构建模块301,用于根据视频的检索需求,构建基于卷积神经网络的用于分类的计算模型,将构建的计算模型发送给训练模块302,所述计算模型包括卷积层、池化层、全连接层以及分类器;
训练模块302,用于接收所述构建模块301发送的计算模型,通过图像数据对所述计算模型进行训练,得到优化计算模型,去除优化计算模型中的分类器,得到提取计算模型;将提取计算模型发送给数据库模块303和检索模块304;
数据库模块303,用于接收所述训练模块302发送的提取计算模型,对已有视频资源进行转场帧的提取,并通过所述提取计算模型提取得到转场帧的转场特征,建立转场特征数据库;
检索模块304,用于接收所述训练模块302发送的提取计算模型,将待检索的视频进行转场帧的提取,通过提取计算模型提取得到视频的转场特征,将所述转场特征在所述数据库模块303中的转场特征数据库中进行检索,得到视频的检索结果。
由上述实施例可知,所述基于卷积神经网络的视频检索***通过所述构建模块301建立基于卷积神经网络的用于分类的计算模型,通过所述训练模块302训练得到优化计算模型,去除优化计算模型中的分类器,得到提取计算模型;通过所述数据库模块303建立了基于转场帧的转场特征数据库,最后通过所述检索模块304实现视频的准确检索。所述基于卷积神经网络的视频检索***通过将视频内的转场帧作为数据处理的对象,不仅提高了检索过程的鲁棒性,而且去除了冗余信息;通过采用基于卷积神经网络的计算模型进行特征的提取,大大提高了视频检索的速度和准确性。
优选的,本发明采用卷积神经网络进行视频整体特征的提取与组合,利用kd tree算法完成检索,检索结果具有准确、快速等优点。
在一些可选的实施例中,所述基于卷积神经网络的用于分类的计算模型包括依次连接的卷积层C1、卷积层C2、池化层P2、卷积层C3、池化层P3、卷积层C4、卷积层C5、卷积层C6、池化层P6、全连接层fc7、全连接层fc8以及分类器。
在另一些可选的实施例中,所述6个卷积层的核大小均不大于5×5,且所述卷积层C1的核大小为3×3,卷积层C2的核大小为3×3。
在一些优选的实施例中,所述卷积层C3的核大小为5×5,所述池化层P2、池化层P3、卷积层C4、卷积层C5、卷积层C6、池化层P6的核大小均为3×3;
所述卷积层C1、卷积层C2、卷积层C3、卷积层C4、卷积层C5、卷积层C6的步数均为1,所述池化层P2、池化层P3、池化层P6的步数均为2;
所述卷积层C1、卷积层C2、卷积层C4、卷积层C5、卷积层C6的pad值均为1,所述卷积层C3的pad值为2,所述池化层P2、池化层P3、池化层P6的pad值为0;
所述卷积层C1、卷积层C2的卷积核的个数均为96个,所述卷积层C3、卷积层C6的卷积核的个数均为256个,所述卷积层C4、卷积层C5的卷积核的个数均为384个。
在另一些优选的实施例中,所述全连接层fc7、全连接层fc8的节点数目分别为4096、1000;且所述全连接层fc7采用dropout方式进行数据处理;所述分类器为softmax分类器。
可选的,所述卷积层C1、卷积层C2、卷积层C3、卷积层C4、卷积层C5、卷积层C6以及所述全连接层fc7均采用激活函数LEAKY RELU进行数据的激活处理。
可选的,所述进行转场帧的提取的方法为:
按照预设的算法,判断所述当前视频帧的前后两帧Y平面的灰度直方图之差是否大于预设的视频阈值,若是,则当前视频帧为转场帧,否则,当前视频帧不是转场帧;
算法公式如下:
其中,所述Hp[i]、Hn[i]分别为当前视频帧的前一帧和后一帧的Y平面的灰度直方图对应的数值,T为预设的视频阈值。
进一步,所述预设的视频阈值T的计算公式为:
T=width*height/8,其中,width和height分别为视频帧的宽度和高度。
在一些可选的实施例中,本发明所述的基于卷积神经网络的视频检索***应用于手机、电脑、平板、智能电视等各类智能终端设备中,或者,还可以用于各类服务器中,例如网页搜索的服务器中。同时,将本发明所述基于卷积神经网络的视频检索***中的部分模块分别作为终端、服务器的功能模块也属于本发明保护的范围。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本公开的范围(包括权利要求)被限于这些例子;在本发明的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,步骤可以以任意顺序实现,并存在如上所述的本发明的不同方面的许多其它变化,为了简明它们没有在细节中提供。
另外,为简化说明和讨论,并且为了不会使本发明难以理解,在所提供的附图中可以示出或可以不示出与集成电路(IC)芯片和其它部件的公知的电源/接地连接。此外,可以以框图的形式示出装置,以便避免使本发明难以理解,并且这也考虑了以下事实,即关于这些框图装置的实施方式的细节是高度取决于将要实施本发明的平台的(即,这些细节应当完全处于本领域技术人员的理解范围内)。在阐述了具体细节(例如,电路)以描述本发明的示例性实施例的情况下,对本领域技术人员来说显而易见的是,可以在没有这些具体细节的情况下或者这些具体细节有变化的情况下实施本发明。因此,这些描述应被认为是说明性的而不是限制性的。
尽管已经结合了本发明的具体实施例对本发明进行了描述,但是根据前面的描述,这些实施例的很多替换、修改和变型对本领域普通技术人员来说将是显而易见的。例如,其它存储器架构(例如,动态RAM(DRAM))可以使用所讨论的实施例。
本发明的实施例旨在涵盖落入所附权利要求的宽泛范围之内的所有这样的替换、修改和变型。因此,凡在本发明的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (16)
1.一种基于卷积神经网络的视频检索方法,其特征在于,包括:
根据视频的检索需求,构建基于卷积神经网络的用于分类的计算模型,所述计算模型包括卷积层、池化层、全连接层以及分类器;
通过图像数据对所述计算模型进行训练,得到优化计算模型,去除优化计算模型中的分类器,得到提取计算模型;
对已有视频资源进行转场帧的提取,并通过所述提取计算模型提取得到转场帧的转场特征,建立转场特征数据库;
将待检索的视频进行转场帧的提取,通过提取计算模型提取得到视频的转场特征,将所述转场特征在所述转场特征数据库中进行检索,得到视频的检索结果。
2.根据权利要求1所述的方法,其特征在于,所述基于卷积神经网络的用于分类的计算模型包括依次连接的卷积层C1、卷积层C2、池化层P2、卷积层C3、池化层P3、卷积层C4、卷积层C5、卷积层C6、池化层P6、全连接层fc7、全连接层fc8以及分类器。
3.根据权利要求2所述的方法,其特征在于,所述6个卷积层的核大小均不大于5×5,且所述卷积层C1的核大小为3×3,卷积层C2的核大小为3×3。
4.根据权利要求3所述的方法,其特征在于,所述卷积层C3的核大小为5×5,所述池化层P2、池化层P3、卷积层C4、卷积层C5、卷积层C6、池化层P6的核大小均为3×3;
所述卷积层C1、卷积层C2、卷积层C3、卷积层C4、卷积层C5、卷积层C6的步数均为1,所述池化层P2、池化层P3、池化层P6的步数均为2;
所述卷积层C1、卷积层C2、卷积层C4、卷积层C5、卷积层C6的pad值均为1,所述卷积层C3的pad值为2,所述池化层P2、池化层P3、池化层P6的pad值为0;
所述卷积层C1、卷积层C2的卷积核的个数均为96个,所述卷积层C3、卷积层C6的卷积核的个数均为256个,所述卷积层C4、卷积层C5的卷积核的个数均为384个。
5.根据权利要求2所述的方法,其特征在于,所述全连接层fc7、全连接层fc8的节点数目分别为4096、1000;且所述全连接层fc7采用dropout方式进行数据处理;
所述分类器为softmax分类器。
6.根据权利要求2所述的方法,其特征在于,所述卷积层C1、卷积层C2、卷积层C3、卷积层C4、卷积层C5、卷积层C6以及所述全连接层fc7均采用激活函数LEAKY RELU进行数据的激活处理。
7.根据权利要求1所述的方法,其特征在于,所述进行转场帧的提取的方法为:
按照预设的算法,判断所述当前视频帧的前后两帧Y平面的灰度直方图之差是否大于预设的视频阈值,若是,则当前视频帧为转场帧,否则,当前视频帧不是转场帧;
算法公式如下:
其中,所述Hp[i]、Hn[i]分别为当前视频帧的前一帧和后一帧的Y平面的灰度直方图对应的数值,T为预设的视频阈值。
8.根据权利要求7所述的方法,其特征在于,所述预设的视频阈值T的计算公式为:
T=width*height/8,其中,width和height分别为视频帧的宽度和高度。
9.一种基于卷积神经网络的视频检索***,其特征在于,包括:
构建模块,用于根据视频的检索需求,构建基于卷积神经网络的用于分类的计算模型,将构建的计算模型发送给训练模块,所述计算模型包括卷积层、池化层、全连接层以及分类器;
训练模块,用于接收所述构建模块发送的计算模型,通过图像数据对所述计算模型进行训练,得到优化计算模型,去除优化计算模型中的分类器,得到提取计算模型;将提取计算模型发送给数据库模块和检索模块;
数据库模块,用于接收所述训练模块发送的提取计算模型,对已有视频资源进行转场帧的提取,并通过所述提取计算模型提取得到转场帧的转场特征,建立转场特征数据库;
检索模块,用于接收所述训练模块发送的提取计算模型,将待检索的视频进行转场帧的提取,通过提取计算模型提取得到视频的转场特征,将所述转场特征在所述数据库模块中的转场特征数据库中进行检索,得到视频的检索结果。
10.根据权利要求9所述的***,其特征在于,所述基于卷积神经网络的用于分类的计算模型包括依次连接的卷积层C1、卷积层C2、池化层P2、卷积层C3、池化层P3、卷积层C4、卷积层C5、卷积层C6、池化层P6、全连接层fc7、全连接层fc8以及分类器。
11.根据权利要求10所述的***,其特征在于,所述6个卷积层的核大小均不大于5×5,且所述卷积层C1的核大小为3×3,卷积层C2的核大小为3×3。
12.根据权利要求11所述的***,其特征在于,所述卷积层C3的核大小为5×5,所述池化层P2、池化层P3、卷积层C4、卷积层C5、卷积层C6、池化层P6的核大小均为3×3;
所述卷积层C1、卷积层C2、卷积层C3、卷积层C4、卷积层C5、卷积层C6的步数均为1,所述池化层P2、池化层P3、池化层P6的步数均为2;
所述卷积层C1、卷积层C2、卷积层C4、卷积层C5、卷积层C6的pad值均为1,所述卷积层C3的pad值为2,所述池化层P2、池化层P3、池化层P6的pad值为0;
所述卷积层C1、卷积层C2的卷积核的个数均为96个,所述卷积层C3、卷积层C6的卷积核的个数均为256个,所述卷积层C4、卷积层C5的卷积核的个数均为384个。
13.根据权利要求10所述的***,其特征在于,所述全连接层fc7、全连接层fc8的节点数目分别为4096、1000;且所述全连接层fc7采用dropout方式进行数据处理;
所述分类器为softmax分类器。
14.根据权利要求10所述的***,其特征在于,所述卷积层C1、卷积层C2、卷积层C3、卷积层C4、卷积层C5、卷积层C6以及所述全连接层fc7均采用激活函数LEAKY RELU进行数据的激活处理。
15.根据权利要求9所述的***,其特征在于,所述进行转场帧的提取的方法为:
按照预设的算法,判断所述当前视频帧的前后两帧Y平面的灰度直方图之差是否大于预设的视频阈值,若是,则当前视频帧为转场帧,否则,当前视频帧不是转场帧;
算法公式如下:
其中,所述Hp[i]、Hn[i]分别为当前视频帧的前一帧和后一帧的Y平面的灰度直方图对应的数值,T为预设的视频阈值。
16.根据权利要求15所述的***,其特征在于,所述预设的视频阈值T的计算公式为:
T=width*height/8,其中,width和height分别为视频帧的宽度和高度。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610237628.2A CN105930402A (zh) | 2016-04-15 | 2016-04-15 | 基于卷积神经网络的视频检索方法及*** |
PCT/CN2016/103945 WO2017177661A1 (zh) | 2016-04-15 | 2016-10-31 | 基于卷积神经网络的视频检索方法及*** |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610237628.2A CN105930402A (zh) | 2016-04-15 | 2016-04-15 | 基于卷积神经网络的视频检索方法及*** |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105930402A true CN105930402A (zh) | 2016-09-07 |
Family
ID=56839123
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610237628.2A Pending CN105930402A (zh) | 2016-04-15 | 2016-04-15 | 基于卷积神经网络的视频检索方法及*** |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN105930402A (zh) |
WO (1) | WO2017177661A1 (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106682108A (zh) * | 2016-12-06 | 2017-05-17 | 浙江大学 | 一种基于多模态卷积神经网络的视频检索方法 |
CN106886768A (zh) * | 2017-03-02 | 2017-06-23 | 杭州当虹科技有限公司 | 一种基于深度学习的视频指纹算法 |
WO2017177661A1 (zh) * | 2016-04-15 | 2017-10-19 | 乐视控股(北京)有限公司 | 基于卷积神经网络的视频检索方法及*** |
CN107527010A (zh) * | 2017-07-13 | 2017-12-29 | 央视国际网络无锡有限公司 | 一种根据局部特征和运动矢量抽取视频基因的方法 |
CN107766852A (zh) * | 2017-12-06 | 2018-03-06 | 电子科技大学 | 一种基于卷积神经网络的人机鼠标轨迹检测方法 |
CN107766838A (zh) * | 2017-11-08 | 2018-03-06 | 央视国际网络无锡有限公司 | 一种视频场景切换检测方法 |
CN108665769A (zh) * | 2018-05-11 | 2018-10-16 | 深圳市鹰硕技术有限公司 | 基于卷积神经网络的网络教学方法以及装置 |
CN108882016A (zh) * | 2018-07-31 | 2018-11-23 | 成都华栖云科技有限公司 | 一种视频基因数据提取的方法及*** |
CN109815364A (zh) * | 2019-01-18 | 2019-05-28 | 上海极链网络科技有限公司 | 一种海量视频特征提取、存储和检索方法及*** |
CN111723617A (zh) * | 2019-03-20 | 2020-09-29 | 顺丰科技有限公司 | 动作识别的方法、装置、设备及存储介质 |
CN113139095A (zh) * | 2021-05-06 | 2021-07-20 | 北京百度网讯科技有限公司 | 视频检索方法及装置、计算机设备和介质 |
CN113254703A (zh) * | 2021-05-12 | 2021-08-13 | 北京百度网讯科技有限公司 | 视频匹配方法、视频处理方法、装置、电子设备及介质 |
CN113536031A (zh) * | 2021-06-17 | 2021-10-22 | 北京百度网讯科技有限公司 | 视频搜索的方法、装置、电子设备及存储介质 |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108804581B (zh) * | 2018-05-24 | 2022-05-17 | 广州数据盒子科技有限公司 | 一种基于深度学习的同类物体检索方法及*** |
CN109543526B (zh) * | 2018-10-19 | 2022-11-08 | 谢飞 | 基于深度差异性特征的真假面瘫识别*** |
CN109726798B (zh) * | 2018-12-27 | 2021-04-13 | 北京灵汐科技有限公司 | 一种数据处理方法及装置 |
CN109710804B (zh) * | 2019-01-16 | 2022-10-18 | 信阳师范学院 | 一种教学视频图像知识点降维分析方法 |
CN109857893A (zh) * | 2019-01-16 | 2019-06-07 | 平安科技(深圳)有限公司 | 图片检索方法、装置、计算机设备及存储介质 |
CN110084739A (zh) * | 2019-03-28 | 2019-08-02 | 东南大学 | 一种基于cnn的画质增强算法的fpga并行加速*** |
CN110148466B (zh) * | 2019-05-15 | 2022-11-25 | 东北大学 | 一种基于迁移学习的心冲击信号房颤计算机辅助诊断方法 |
CN110348349A (zh) * | 2019-07-01 | 2019-10-18 | 河南牧业经济学院 | 一种收集、分析猪行为视频数据的方法和*** |
CN110321958B (zh) * | 2019-07-08 | 2022-03-08 | 北京字节跳动网络技术有限公司 | 神经网络模型的训练方法、视频相似度确定方法 |
CN110347600B (zh) * | 2019-07-11 | 2023-04-07 | 中国人民解放军陆军工程大学 | 面向卷积神经网络的变异覆盖测试方法及计算机存储介质 |
CN110674925B (zh) * | 2019-08-29 | 2023-04-18 | 厦门大学 | 基于3d卷积神经网络的无参考vr视频质量评价方法 |
CN110532959B (zh) * | 2019-08-30 | 2022-10-14 | 大连海事大学 | 基于双通道三维卷积神经网络的实时暴力行为检测*** |
CN110806717B (zh) * | 2019-11-21 | 2022-03-11 | 山东大齐通信电子有限公司 | 一种矿用通信控制***的集控台及矿用通信控制*** |
CN111353391B (zh) * | 2020-02-17 | 2023-07-07 | 西安电子科技大学 | 雷达干扰效果评估方法、装置、电子设备及其存储介质 |
CN111476101A (zh) * | 2020-03-11 | 2020-07-31 | 咪咕文化科技有限公司 | 视频镜头切换检测方法及装置、计算机可读存储介质 |
CN111831852B (zh) * | 2020-07-07 | 2023-11-24 | 北京灵汐科技有限公司 | 一种视频检索方法、装置、设备及存储介质 |
CN112235434B (zh) * | 2020-10-16 | 2021-10-26 | 重庆理工大学 | 融合k-means及其胶囊网络的DGA网络域名检测识别*** |
CN112966813B (zh) * | 2021-03-15 | 2023-04-07 | 神思电子技术股份有限公司 | 一种卷积神经网络输入层装置及其工作方法 |
CN117269992B (zh) * | 2023-08-29 | 2024-04-19 | 中国民航科学技术研究院 | 基于卷积神经网络的卫星导航多径信号检测方法及*** |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104657748A (zh) * | 2015-02-06 | 2015-05-27 | 中国石油大学(华东) | 一种基于卷积神经网络的车型识别方法 |
CN104850836A (zh) * | 2015-05-15 | 2015-08-19 | 浙江大学 | 基于深度卷积神经网络的害虫图像自动识别方法 |
CN104980625A (zh) * | 2015-06-19 | 2015-10-14 | 新奥特(北京)视频技术有限公司 | 视频转场检测的方法和装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010276691A (ja) * | 2009-05-26 | 2010-12-09 | Toshiba Corp | 画像処理装置および画像処理方法 |
CN104156464B (zh) * | 2014-08-20 | 2018-04-27 | 中国科学院重庆绿色智能技术研究院 | 基于微视频特征数据库的微视频检索方法及装置 |
CN105930402A (zh) * | 2016-04-15 | 2016-09-07 | 乐视控股(北京)有限公司 | 基于卷积神经网络的视频检索方法及*** |
-
2016
- 2016-04-15 CN CN201610237628.2A patent/CN105930402A/zh active Pending
- 2016-10-31 WO PCT/CN2016/103945 patent/WO2017177661A1/zh active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104657748A (zh) * | 2015-02-06 | 2015-05-27 | 中国石油大学(华东) | 一种基于卷积神经网络的车型识别方法 |
CN104850836A (zh) * | 2015-05-15 | 2015-08-19 | 浙江大学 | 基于深度卷积神经网络的害虫图像自动识别方法 |
CN104980625A (zh) * | 2015-06-19 | 2015-10-14 | 新奥特(北京)视频技术有限公司 | 视频转场检测的方法和装置 |
Non-Patent Citations (1)
Title |
---|
赵凯旋等: "基于卷积神经网络的奶牛个体身份识别方法", 《农业工程学报》 * |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017177661A1 (zh) * | 2016-04-15 | 2017-10-19 | 乐视控股(北京)有限公司 | 基于卷积神经网络的视频检索方法及*** |
CN106682108A (zh) * | 2016-12-06 | 2017-05-17 | 浙江大学 | 一种基于多模态卷积神经网络的视频检索方法 |
CN106682108B (zh) * | 2016-12-06 | 2022-07-12 | 浙江大学 | 一种基于多模态卷积神经网络的视频检索方法 |
CN106886768A (zh) * | 2017-03-02 | 2017-06-23 | 杭州当虹科技有限公司 | 一种基于深度学习的视频指纹算法 |
CN107527010A (zh) * | 2017-07-13 | 2017-12-29 | 央视国际网络无锡有限公司 | 一种根据局部特征和运动矢量抽取视频基因的方法 |
CN107527010B (zh) * | 2017-07-13 | 2020-07-10 | 央视国际网络无锡有限公司 | 一种根据局部特征和运动矢量抽取视频基因的方法 |
CN107766838B (zh) * | 2017-11-08 | 2021-06-01 | 央视国际网络无锡有限公司 | 一种视频场景切换检测方法 |
CN107766838A (zh) * | 2017-11-08 | 2018-03-06 | 央视国际网络无锡有限公司 | 一种视频场景切换检测方法 |
CN107766852A (zh) * | 2017-12-06 | 2018-03-06 | 电子科技大学 | 一种基于卷积神经网络的人机鼠标轨迹检测方法 |
CN108665769A (zh) * | 2018-05-11 | 2018-10-16 | 深圳市鹰硕技术有限公司 | 基于卷积神经网络的网络教学方法以及装置 |
CN108882016A (zh) * | 2018-07-31 | 2018-11-23 | 成都华栖云科技有限公司 | 一种视频基因数据提取的方法及*** |
CN109815364A (zh) * | 2019-01-18 | 2019-05-28 | 上海极链网络科技有限公司 | 一种海量视频特征提取、存储和检索方法及*** |
CN111723617A (zh) * | 2019-03-20 | 2020-09-29 | 顺丰科技有限公司 | 动作识别的方法、装置、设备及存储介质 |
CN111723617B (zh) * | 2019-03-20 | 2023-10-27 | 顺丰科技有限公司 | 动作识别的方法、装置、设备及存储介质 |
CN113139095A (zh) * | 2021-05-06 | 2021-07-20 | 北京百度网讯科技有限公司 | 视频检索方法及装置、计算机设备和介质 |
CN113254703A (zh) * | 2021-05-12 | 2021-08-13 | 北京百度网讯科技有限公司 | 视频匹配方法、视频处理方法、装置、电子设备及介质 |
CN113536031A (zh) * | 2021-06-17 | 2021-10-22 | 北京百度网讯科技有限公司 | 视频搜索的方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2017177661A1 (zh) | 2017-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105930402A (zh) | 基于卷积神经网络的视频检索方法及*** | |
Yin et al. | FD-SSD: An improved SSD object detection algorithm based on feature fusion and dilated convolution | |
CN111914085B (zh) | 文本细粒度情感分类方法、***、装置及存储介质 | |
CN109635662B (zh) | 一种基于卷积神经网络的道路场景语义分割方法 | |
CN106951830B (zh) | 一种基于先验条件约束的图像场景多对象标记方法 | |
CN110059728B (zh) | 基于注意力模型的rgb-d图像视觉显著性检测方法 | |
CN111931859B (zh) | 一种多标签图像识别方法和装置 | |
CN110298841B (zh) | 一种基于融合网络的图像多尺度语义分割方法及装置 | |
CN111783712A (zh) | 一种视频处理方法、装置、设备及介质 | |
CN110852327A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN113159067A (zh) | 一种基于多粒度局部特征软关联聚合的细粒度图像辨识方法及装置 | |
CN114861842B (zh) | 少样本目标检测方法、装置和电子设备 | |
CN111046213B (zh) | 一种基于图像识别的知识库构建方法 | |
CN112329861A (zh) | 一种面向移动机器人多目标检测的分层特征融合方法 | |
CN116778148A (zh) | 目标检测方法、装置、电子设备及存储介质 | |
CN110111365B (zh) | 基于深度学习的训练方法和装置以及目标跟踪方法和装置 | |
CN112926595B (zh) | 深度学习神经网络模型的训练装置、目标检测***及方法 | |
CN112132867B (zh) | 一种遥感影像变化检测方法及装置 | |
Zong et al. | A cascaded refined rgb-d salient object detection network based on the attention mechanism | |
CN116246287B (zh) | 目标对象识别方法、训练方法、装置以及存储介质 | |
CN115393868B (zh) | 文本检测方法、装置、电子设备和存储介质 | |
CN114333062B (zh) | 基于异构双网络和特征一致性的行人重识别模型训练方法 | |
CN115168609A (zh) | 一种文本匹配方法、装置、计算机设备和存储介质 | |
CN114782720A (zh) | 文案的配图确定方法、装置、电子设备、介质及程序产品 | |
CN114494284A (zh) | 一种基于显式监督区域关系的场景解析模型及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20160907 |