CN110866510A - 一种基于关键帧检测的视频描述***和方法 - Google Patents
一种基于关键帧检测的视频描述***和方法 Download PDFInfo
- Publication number
- CN110866510A CN110866510A CN201911145738.6A CN201911145738A CN110866510A CN 110866510 A CN110866510 A CN 110866510A CN 201911145738 A CN201911145738 A CN 201911145738A CN 110866510 A CN110866510 A CN 110866510A
- Authority
- CN
- China
- Prior art keywords
- video
- network
- description
- key frame
- key
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于关键帧检测视频描述***及方法,本发明包括采样模块、关键帧选择网络和视频帧描述网络,本发明还涉及一种基于关键帧检测的视频描述方法,括如下步骤:S1、采用等间隔的采样方式从待描述视频抽取视频帧;S2、基于关键帧选择网络从所抽取的视频帧中筛选包含不同信息的关键帧;S3、将筛选的关键帧送入至视频帧描述网络中生成描述文本。本发明在视频帧描述网络之前增加关键帧选择网络,所有视频帧先送入到关键帧帧选择网络进行筛选,筛选出包含不同信息的关键帧,在这过程中能够排除掉较多的重复冗余的视频帧,大大减少了视频帧描述网络处理量,降低了冗余信息的产生,降低噪声的干扰,提高了***处理效率。
Description
技术领域
本发明涉及视频处理技术领域,具体涉及一种基于关键帧检测时视频描述方法。
背景技术
视频描述任务类似于将视频内容翻译成一段自然语言,早期的视频描述方法,主要由自底向上的方法解决此类任务,首先预定多种句子模板,将组成句子的单词根据词性进行分类,通过属性学习和目标识别等方法获得图像的描述性单词,然后通过将预测单词与预定义的句子模板匹配的语言模型将它们组合起来,这种方法也简称为S-V-O(主-谓-宾)方法。随着神经网络和深度学习的发展,当前的视频描述任务以卷积网络-CNN和循环神经网络-RNN为基础,采用编码器-解码器结构。首先将视频内容编码成全局表示向量,随后采用解码器将编码得到的表示向量解码成自然语言。基于编码-解码框架的一个热门分支是利用注意力机制对输入特征进行加权,通过学习自动学得突出目标。对于图像描述任务,注意力机制的表示形式通常是针对于空间区域的注意形式。对于视频描述任务,注意力之积通常表现于时间维度,在生成输出序列中的相应单词时,自动将重点固定在表现突出的相关帧上。
现有的模型通常在编码阶段等间隔的采样一定数量的视频帧,这将会导致选取了多个具有重复和冗余视觉信息的帧。随后利用视频的局部时间结构或者全局时间结构或者同时使用两种时间结构,在给定解码RNN的情况下自动选择最相关的时间片段。在此过程中将涉及显著的计算开销,例如对于一个中等规模的深度分类模型来说,提取一个帧大小的图片的视觉特征需要数百万次浮点数的计算,和得到的效果相比,显然计算资源被极大的浪费。此外,但由于考虑的帧只是通过简单的采样进行选取,并没有经过特别的选取。而视频相邻几秒钟的时间内发生的事件通过不会有过大的变化,因此存在于相邻帧中的时间冗余没有得到解决,并且不能保证通过等间隔采样得到的帧都包含有意义的信息。这些冗余以及噪声很可能会导致模型对噪声过于敏感以及对视频内容信息产生过拟合。
综上所述,基于注意力机制的方法,尤其是时间注意力,等间隔采样帧,并在完全观察到所有视频内容的条件下进行操作,这在一些实际应用中并不适用。
发明内容
本发明的目的是针对以上不足,提供一种计算量小的基于关键帧检测的视频描述***,还提供一种计算量小的基于关键帧检测的视频描述方法。
本发明所采用技术方案是:
一种基于关键帧检测的视频描述***,包括采样模块、关键帧选择网络和视频帧描述网络,其中:
采样模块,用于以等间隔的采样方式从待描述视频抽取视频帧;
关键帧选择网络,用于在上述获取的视频帧中筛选具有不同信息的关键帧;
视频帧描述网络,基于上述关键帧生成视频描述文本。
具体的,本发明所述关键帧选择网络基于卷积神经网络搭建,所述视频帧描述网络基于编码器-解码器结构,编码器采用卷积神经网络和循环神经网络进行特征提取,解码器采用双向LSTM并结合注意力机制。
本发明还涉及一种基于关键帧检测的视频描述方法,包括如下步骤:
S1、采用等间隔的采样方式从待描述视频抽取视频帧;
S2、基于关键帧选择网络从所抽取的视频帧中筛选包含不同信息的关键帧;
S3、将筛选的关键帧送入至视频帧描述网络中生成描述文本。
作为优选的,本发明所述关键帧选择网络基于卷积神经网络,关键帧的筛选步骤包括:
S21、所有视频帧依次送入关键帧选择网络中,通过卷积处理后获得视频帧对应的特征向量;
S22、基于当前视频帧的特征向量与上一时刻的视频帧的特征性向量进行对比,获得两者之间的差异特征向量;
S23、将所述差异特征向量送入到二分类网络中进行处理,分别获得有差异概率和无差异概率,当有差异概率大于无差异概率时,当前视频帧选择保留,作为关键帧,并作为下一比较过程的对比视频帧;当有差异概率大于无差异概率时,当前视频帧选择丢弃,该比较过程的对比视频帧仍作为一下过程的对比视频帧;
S24、重复步骤S12-S13,直至将所有视频帧处理完成。
作为优选的,本发明所述视频帧描述网络基于编码器-解码器结构,编码器采用卷积神经网络和循环神经网络进行特征提取,解码器采用双向LSTM,并结合注意力机制,视频帧的描述步骤包括:
将上述关键帧送入到视频帧描述网络中,先通过卷积神经网络获取关键帧的特征向量,再将关键帧的特征向量送入到循环神经网络中得到视频全局表示向量,最后将视频全局表示向量送入到解码器中解码得到每时刻单词的概率,选择概率最大的单词作为候选单词,进一步生成视频的描述文本。
作为优选的,本发明所述视频帧选择网络和视频帧描述网络的建立包括如下步骤:
搭建网络结构:基于卷积神经网络搭建视频帧选择网络,基于编码器-解码器结构搭建视频帧描述网络,所述视频帧描述网络基于编码器-解码器结构,编码器采用卷积神经网络和循环神经网络进行特征提取,解码器采用双向LSTM,并结合注意力机制。
获取原始数据:从获取的待描述视频按等间隔的采样方式抽取视频帧,并在每个视频帧中通过人工进行标注,同时将视频帧划分为训练集和测试集;
制作单词表:使用nltk对每个视频帧中的人工标注进行筛选分词,制作单词表;
预训练视频帧描述网络:通过交叉熵损失函数预训练视频描述网络,将得到的语言描述分别与真实标注计算交叉熵,同时将得到的语言描述的和作为总体损失;
训练关键帧选择网络:以预训练的视频帧描述网络为环境,使用增强学习算法训练关键帧选择网络。
联合训练:将关键帧选择网络和视频帧描述网络进行联合训练。
作为优选的,本发明所述预训练视频帧描述网络的步骤包括:
将训练集的视频进行等间隔抽取视频帧,并将抽取的视频帧人工建立标签;
通过卷积神经网络获取所述视频帧的特征向量;
将视频帧的特征向量送入到循环神经网络中得到视频全局表示向量;
将视频全局表示向量送入到解码器中解码得到每时刻单词的概率,选择概率最大的单词作为候选单词;
基于候选单词与人工建立的标签进行监督学习。
作为优选的,本发明基于上述预训练好的视频帧描述网络训练关键帧选择网络,训练关键帧选择网络的步骤包括:
将训练集的视频进行等间隔抽取视频帧,并将抽取的视频帧人工建立标签;
将视频帧送入到关键帧选择网络中筛选出关键帧,并结合评价体系;
将筛选出的关键帧送入到训练好的视频帧描述网络中获取候选单词;
评价体系基于视频帧描述网络中的候选单词与人工标签的匹配度进行奖励优化关键帧选择网络。
本发明具有以下优点:
1、本发明在视频帧描述网络之前增加关键帧选择网络,所有视频帧先送入到关键帧帧选择网络进行筛选,筛选出包含不同信息的关键帧,在这过程中能够排除掉较多的重复冗余的视频帧,然后再将关键帧送入到视频帧描述网络中进行处理,大大减少了视频帧描述网络处理量,降低了冗余信息的产生,降低噪声的干扰,提高了***处理效率;
2、本发明的关键帧选择网络独立于视频帧描述网络而设置,在使用过程中可以根据不用情况,选择使用或者不使用关键帧选择网络,使得本发明的***更具有灵活性;
3、本发明的方法采用一个关键帧选择网络忽略内容上相似的帧,保留具有较大差异的帧,从而消除冗余,最大程度上减少计算量,降低噪声的干扰,防止过拟合,得到准确的描述结果。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例中描述中所需要使用的附图作简要介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域的普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
下面结合附图对本发明进一步说明:
图1为本发明的视频描述方法的流程示意图
具体实施方式
下面结合附图和具体实施例对本发明作进一步说明,以使本领域的技术人员可以更好地理解本发明并能予以实施,但所举实施例不作为对本发明的限定,在不冲突的情况下,本发明实施例以及实施例中的技术特征可以相互结合。
需要理解的是,在本发明实施例的描述中,“第一”、“第二”等词汇,仅用于区分描述的目的,而不能理解为指示或暗示相对重要性,也不能理解为指示或暗示顺序。在本发明实施例中的“多个”,是指两个或两个以上。
本发明实施例中的属于“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,单独存在B,同时存在A和B这三种情况。另外,本文中字符“/”一般表示前后关联对象是一种“或”关系。、
实施例一
本实施例提供一种基于关键帧检测的视频描述***,包括采样模块、关键帧选择网络和视频帧描述网络,所述关键帧选择网络基于卷积神经网络搭建,所述视频帧描述网络基于编码器-解码器结构,编码器采用卷积神经网络和循环神经网络进行特征提取,解码器采用双向LSTM并结合注意力机制。其中:
采样模块,用于以等间隔的采样方式从待描述视频抽取视频帧;
关键帧选择网络,用于在上述获取的视频帧中筛选具有不同信息的关键帧;
视频帧描述网络,基于上述关键帧生成视频描述文本。
实施例二
本实施例提供一种基于关键帧检测的视频描述方法,包括如下步骤:
S1、采用等间隔的采样方式从待描述视频抽取视频帧;
S2、基于关键帧选择网络从所抽取的视频帧中筛选包含不同信息的关键帧;所述关键帧选择网络基于卷积神经网络建立,具体的,关键帧的筛选包括如下步骤:
S21、所有视频帧依次送入关键帧选择网络中,通过卷积处理后获得视频帧对应的特征向量;
S22、基于当前视频帧的特征向量与上一时刻的视频帧的特征性向量进行对比,获得两者之间的差异特征向量;
S23、将所述差异特征向量送入到二分类网络中进行处理,分别获得有差异概率和无差异概率,当有差异概率大于无差异概率时,当前视频帧选择保留,作为关键帧,并作为下一比较过程的对比视频帧;当有差异概率大于无差异概率时,当前视频帧选择丢弃,该比较过程的对比视频帧仍作为一下过程的对比视频帧;
S24、重复步骤S22-S23,直至将所有视频帧处理完成。
S3、将筛选的关键帧送入至视频帧描述网络中生成描述文本。所述视频帧描述网络基于编码器-解码器结构,编码器采用卷积神经网络和循环神经网络进行特征提取,解码器采用双向LSTM,并结合注意力机制,具体的,视频帧的描述步骤包括:将所述关键帧送入到视频帧描述网络中,先通过卷积神经网络获取关键帧的特征向量,再将关键帧的特征向量送入到循环神经网络中得到视频全局表示向量,最后将视频全局表示向量送入到解码器中解码得到每时刻单词的概率,选择概率最大的单词作为候选单词,进一步生成视频的描述文本。
本实施例中所述视频帧选择网络和视频帧描述网络的建立包括如下步骤:
S1、搭建网络结构:基于卷积神经网络搭建视频帧选择网络,基于编码器-解码器结构搭建视频帧描述网络,所述视频帧描述网络基于编码器-解码器结构,编码器采用卷积神经网络好循环神经网络进行特征提取,解码器采用双向LSTM并结合注意力机制。
S2、获取原始数据:从获取的待描述视频按等间隔的采样方式抽取视频帧,并在每个视频帧中通过人工进行标注,同时将视频帧划分为训练集和测试集;
S3、制作单词表:使用nltk对每个视频帧中的人工标注进行筛选分词,制作单词表;
S4、预训练视频帧描述网络:通过交叉熵损失函数预训练视频描述网络,将得到的语言描述分别与真实标注计算交叉熵,同时将得到的语言描述的和作为总体损失;具体的,所述预训练视频帧描述网络的步骤包括:
S41、将训练集的视频进行等间隔抽取视频帧,并将抽取的视频帧人工建立标签;
S42、通过卷积神经网络获取所述视频帧的特征向量;
S43、将视频帧的特征向量送入到循环神经网络中得到视频全局表示向量;
S44、将视频全局表示向量送入到解码器中解码得到每时刻单词的概率,选择概率最大的单词作为候选单词;
S45、基于候选单词与人工建立的标签进行监督学习。
S5、训练关键帧选择网络:基于上述预训练好的视频帧描述网络训练关键帧选择网络,具体的,训练关键帧选择网络包括如下步骤:
S51、将训练集的视频进行等间隔抽取视频帧,并将抽取的视频帧人工建立标签;
S52、将视频帧送入到关键帧选择网络中筛选出关键帧,并结合评价体系;
S53、将筛选出的关键帧送入到训练好的视频帧描述网络中获取候选单词;
S54、评价体系基于视频帧描述网络中的候选单词与人工标签的匹配度进行奖励优化关键帧选择网络。
S6、联合训练:将关键帧选择网络和视频帧描述网络进行联合训练。经过视频帧描述网络预训练阶段和固定视频帧描述网络训练关键帧选择网络两个阶段后,视频帧描述网络和关键帧选择网络都经过了良好的预训练,但是由于视频帧描述网络在与训练时使用全部采样的视频帧作为输入,而加入关键帧选择网络后只选择了部分视频帧送入到视频帧描述网络内,所以两者之间存在着差距,通过联合训练将关键帧选择网络和视频帧描述网络结合起来。在每一次迭代中,前向传递选择关键帧,训练编解码器时,视频帧选择被视为固定的选择,并正常执行后向传播和增强梯度更新。
以上所述实施例仅是为充分说明本发明而所举的较佳的实施例,本发明的保护范围不限于此。本技术领域的技术人员在本发明基础上所作的等同替代或变换,均在本发明的保护范围之内。本发明的保护范围以权利要求书为准。
Claims (8)
1.一种基于关键帧检测的视频描述***,其特征在于:包括采样模块、关键帧选择网络和视频帧描述网络,其中:
采样模块,用于以等间隔的采样方式从待描述视频抽取视频帧;
关键帧选择网络,用于在上述获取的视频帧中筛选具有不同信息的关键帧;
视频帧描述网络,基于上述关键帧生成视频描述文本。
2.根据权利要求1所述关键帧检测的视频描述***,其特征在于:所述关键帧选择网络基于卷积神经网络搭建,所述视频帧描述网络基于编码器-解码器结构,编码器采用卷积神经网络和循环神经网络进行特征提取,解码器采用双向LSTM并结合注意力机制。
3.一种基于关键帧检测的视频描述方法,其特征在于:包括如下步骤:
S1、采用等间隔的采样方式从待描述视频抽取视频帧;
S2、基于关键帧选择网络从所抽取的视频帧中筛选包含不同信息的关键帧;
S3、将筛选的关键帧送入至视频帧描述网络中生成描述文本。
4.根据权利要求3所述的基于关键帧检测的视频描述方法,其特征在于:所述关键帧选择网络基于卷积神经网络,关键帧的筛选步骤包括:
S21、所有视频帧依次送入关键帧选择网络中,通过卷积处理后获得视频帧对应的特征向量;
S22、基于当前视频帧的特征向量与上一时刻的视频帧的特征性向量进行对比,获得两者之间的差异特征向量;
S23、将所述差异特征向量送入到二分类网络中进行处理,分别获得有差异概率和无差异概率,当有差异概率大于无差异概率时,当前视频帧选择保留,作为关键帧,并作为下一比较过程的对比视频帧;当有差异概率大于无差异概率时,当前视频帧选择丢弃,该比较过程的对比视频帧仍作为一下过程的对比视频帧;
S24、重复步骤S12-S13,直至将所有视频帧处理完成。
5.根据权利要求4所述的基于关键帧检测的视频描述方法,其特征在于:所述视频帧描述网络基于编码器-解码器结构,编码器采用卷积神经网络和循环神经网络进行特征提取,解码器采用双向LSTM,并结合注意力机制,视频帧的描述步骤包括:
将上述关键帧送入到视频帧描述网络中,先通过卷积神经网络获取关键帧的特征向量,再将关键帧的特征向量送入到循环神经网络中得到视频全局表示向量,最后将视频全局表示向量送入到解码器中解码得到每时刻单词的概率,选择概率最大的单词作为候选单词,进一步生成视频的描述文本。
6.根据权利要求5所述的基于关键帧检测的视频描述方法,其特征在于:所述视频帧选择网络和视频帧描述网络的建立包括如下步骤:
搭建网络结构:基于卷积神经网络搭建视频帧选择网络,基于编码器-解码器结构搭建视频帧描述网络,所述视频帧描述网络基于编码器-解码器结构,编码器采用卷积神经网络和循环神经网络进行特征提取,解码器采用双向LSTM,并结合注意力机制。
获取原始数据:从获取的待描述视频按等间隔的采样方式抽取视频帧,并在每个视频帧中通过人工进行标注,同时将视频帧划分为训练集和测试集;
制作单词表:使用nltk对每个视频帧中的人工标注进行筛选分词,制作单词表;
预训练视频帧描述网络:通过交叉熵损失函数预训练视频描述网络,将得到的语言描述分别与真实标注计算交叉熵,同时将得到的语言描述的和作为总体损失;
训练关键帧选择网络:以预训练的视频帧描述网络为环境,使用增强学习算法训练关键帧选择网络。
联合训练:将关键帧选择网络和视频帧描述网络进行联合训练。
7.根据权利要求6所述的基于关键帧检测的视频描述方法,其特征在于:所述预训练视频帧描述网络的步骤包括:
将训练集的视频进行等间隔抽取视频帧,并将抽取的视频帧人工建立标签;
通过卷积神经网络获取所述视频帧的特征向量;
将视频帧的特征向量送入到循环神经网络中得到视频全局表示向量;
将视频全局表示向量送入到解码器中解码得到每时刻单词的概率,选择概率最大的单词作为候选单词;
基于候选单词与人工建立的标签进行监督学习。
8.根据权利要求7所述的基于关键帧检测的视频描述方法,其特征在于:基于上述预训练好的视频帧描述网络训练关键帧选择网络,训练关键帧选择网络的步骤包括:
将训练集的视频进行等间隔抽取视频帧,并将抽取的视频帧人工建立标签;
将视频帧送入到关键帧选择网络中筛选出关键帧,并结合评价体系;
将筛选出的关键帧送入到训练好的视频帧描述网络中获取候选单词;
评价体系基于视频帧描述网络中的候选单词与人工标签的匹配度进行奖励优化关键帧选择网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911145738.6A CN110866510A (zh) | 2019-11-21 | 2019-11-21 | 一种基于关键帧检测的视频描述***和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911145738.6A CN110866510A (zh) | 2019-11-21 | 2019-11-21 | 一种基于关键帧检测的视频描述***和方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110866510A true CN110866510A (zh) | 2020-03-06 |
Family
ID=69655367
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911145738.6A Pending CN110866510A (zh) | 2019-11-21 | 2019-11-21 | 一种基于关键帧检测的视频描述***和方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110866510A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111259874A (zh) * | 2020-05-06 | 2020-06-09 | 成都派沃智通科技有限公司 | 一种基于深度学习的校园安全视频监测方法 |
CN111556377A (zh) * | 2020-04-24 | 2020-08-18 | 珠海横琴电享科技有限公司 | 一种基于机器学习的短视频打标签方法 |
CN112949501A (zh) * | 2021-03-03 | 2021-06-11 | 安徽省科亿信息科技有限公司 | 一种从示教视频学习物体的可供性方法 |
CN113792183A (zh) * | 2021-09-17 | 2021-12-14 | 咪咕数字传媒有限公司 | 一种文本生成方法、装置及计算设备 |
CN114786052A (zh) * | 2022-04-29 | 2022-07-22 | 同方知网数字出版技术股份有限公司 | 一种基于关键帧提取的学术直播视频快速浏览的方法 |
CN115018840A (zh) * | 2022-08-08 | 2022-09-06 | 珠海市南特金属科技股份有限公司 | 精密铸件裂纹检测方法、***及装置 |
CN115495615A (zh) * | 2022-11-15 | 2022-12-20 | 浪潮电子信息产业股份有限公司 | 视频与文本的互检方法、装置、设备、存储介质及终端 |
CN117177006A (zh) * | 2023-09-01 | 2023-12-05 | 湖南广播影视集团有限公司 | 一种基于cnn算法的短视频智能制作方法 |
WO2024063571A1 (en) * | 2022-09-22 | 2024-03-28 | Samsung Electronics Co., Ltd. | Method and apparatus for vision-language understanding |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180144208A1 (en) * | 2016-11-18 | 2018-05-24 | Salesforce.Com, Inc. | Adaptive attention model for image captioning |
CN109409221A (zh) * | 2018-09-20 | 2019-03-01 | 中国科学院计算技术研究所 | 基于帧选择的视频内容描述方法和*** |
CN109559799A (zh) * | 2018-10-12 | 2019-04-02 | 华南理工大学 | 医学图像语义描述方法、描述模型的构建方法及该模型 |
CN110418210A (zh) * | 2019-07-12 | 2019-11-05 | 东南大学 | 一种基于双向循环神经网络和深度输出的视频描述生成方法 |
-
2019
- 2019-11-21 CN CN201911145738.6A patent/CN110866510A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180144208A1 (en) * | 2016-11-18 | 2018-05-24 | Salesforce.Com, Inc. | Adaptive attention model for image captioning |
CN109409221A (zh) * | 2018-09-20 | 2019-03-01 | 中国科学院计算技术研究所 | 基于帧选择的视频内容描述方法和*** |
CN109559799A (zh) * | 2018-10-12 | 2019-04-02 | 华南理工大学 | 医学图像语义描述方法、描述模型的构建方法及该模型 |
CN110418210A (zh) * | 2019-07-12 | 2019-11-05 | 东南大学 | 一种基于双向循环神经网络和深度输出的视频描述生成方法 |
Non-Patent Citations (2)
Title |
---|
YANGYU CHEN ETC.: "Less Is More: Picking Informative Frames for Video Captioning", 《ECCV 2018: COMPUTER VISION – ECCV 2018》 * |
冀中等: "基于解码器注意力机制的视频摘要", 《天津大学学报(自然科学与工程技术版)》 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111556377A (zh) * | 2020-04-24 | 2020-08-18 | 珠海横琴电享科技有限公司 | 一种基于机器学习的短视频打标签方法 |
CN111259874B (zh) * | 2020-05-06 | 2020-07-28 | 成都派沃智通科技有限公司 | 一种基于深度学习的校园安全视频监测方法 |
CN111259874A (zh) * | 2020-05-06 | 2020-06-09 | 成都派沃智通科技有限公司 | 一种基于深度学习的校园安全视频监测方法 |
CN112949501A (zh) * | 2021-03-03 | 2021-06-11 | 安徽省科亿信息科技有限公司 | 一种从示教视频学习物体的可供性方法 |
CN112949501B (zh) * | 2021-03-03 | 2023-12-08 | 安徽省科亿信息科技有限公司 | 一种从示教视频学习物体的可供性方法 |
CN113792183B (zh) * | 2021-09-17 | 2023-09-08 | 咪咕数字传媒有限公司 | 一种文本生成方法、装置及计算设备 |
CN113792183A (zh) * | 2021-09-17 | 2021-12-14 | 咪咕数字传媒有限公司 | 一种文本生成方法、装置及计算设备 |
CN114786052A (zh) * | 2022-04-29 | 2022-07-22 | 同方知网数字出版技术股份有限公司 | 一种基于关键帧提取的学术直播视频快速浏览的方法 |
CN115018840A (zh) * | 2022-08-08 | 2022-09-06 | 珠海市南特金属科技股份有限公司 | 精密铸件裂纹检测方法、***及装置 |
CN115018840B (zh) * | 2022-08-08 | 2022-11-18 | 珠海市南特金属科技股份有限公司 | 精密铸件裂纹检测方法、***及装置 |
WO2024063571A1 (en) * | 2022-09-22 | 2024-03-28 | Samsung Electronics Co., Ltd. | Method and apparatus for vision-language understanding |
CN115495615B (zh) * | 2022-11-15 | 2023-02-28 | 浪潮电子信息产业股份有限公司 | 视频与文本的互检方法、装置、设备、存储介质及终端 |
CN115495615A (zh) * | 2022-11-15 | 2022-12-20 | 浪潮电子信息产业股份有限公司 | 视频与文本的互检方法、装置、设备、存储介质及终端 |
CN117177006A (zh) * | 2023-09-01 | 2023-12-05 | 湖南广播影视集团有限公司 | 一种基于cnn算法的短视频智能制作方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110866510A (zh) | 一种基于关键帧检测的视频描述***和方法 | |
CN111488807B (zh) | 基于图卷积网络的视频描述生成*** | |
Perarnau et al. | Invertible conditional gans for image editing | |
EP3745305B1 (en) | Video description generation method and device, video playing method and device, and storage medium | |
CN105183720B (zh) | 基于rnn模型的机器翻译方法和装置 | |
CN113011202B (zh) | 基于多任务训练的端到端图像文本翻译方法、***、装置 | |
US20230244704A1 (en) | Sequenced data processing method and device, and text processing method and device | |
EP3885966B1 (en) | Method and device for generating natural language description information | |
CN110688927B (zh) | 一种基于时序卷积建模的视频动作检测方法 | |
CN110083702B (zh) | 一种基于多任务学习的方面级别文本情感转换方法 | |
CN108563622B (zh) | 一种具有风格多样性的绝句生成方法及装置 | |
CN108538283B (zh) | 一种由唇部图像特征到语音编码参数的转换方法 | |
CN114339450B (zh) | 视频评论生成方法、***、设备及存储介质 | |
CN113035311A (zh) | 一种基于多模态注意力机制的医学图像报告自动生成方法 | |
CN113657115B (zh) | 一种基于讽刺识别和细粒度特征融合的多模态蒙古文情感分析方法 | |
Bilkhu et al. | Attention is all you need for videos: Self-attention based video summarization using universal transformers | |
CN114373028A (zh) | 生成图片的方法及装置、电子设备 | |
CN111340006B (zh) | 一种手语识别方法及*** | |
CN115810068A (zh) | 一种图像描述生成方法、装置、存储介质及电子设备 | |
CN110298046B (zh) | 一种翻译模型训练方法、文本翻译方法及相关装置 | |
CN115269836A (zh) | 意图识别方法及装置 | |
Zaoad et al. | An attention-based hybrid deep learning approach for bengali video captioning | |
CN111008329A (zh) | 基于内容分类的页面内容推荐方法及装置 | |
CN116956953A (zh) | 翻译模型的训练方法、装置、设备、介质及程序产品 | |
CN114565804A (zh) | 一种nlp模型训练识别*** |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200306 |