CN111488489A - 视频文件的分类方法、装置、介质及电子设备 - Google Patents
视频文件的分类方法、装置、介质及电子设备 Download PDFInfo
- Publication number
- CN111488489A CN111488489A CN202010224680.0A CN202010224680A CN111488489A CN 111488489 A CN111488489 A CN 111488489A CN 202010224680 A CN202010224680 A CN 202010224680A CN 111488489 A CN111488489 A CN 111488489A
- Authority
- CN
- China
- Prior art keywords
- video
- classification result
- video file
- classification
- audio
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 70
- 230000011218 segmentation Effects 0.000 claims abstract description 84
- 238000012545 processing Methods 0.000 claims abstract description 31
- 230000004927 fusion Effects 0.000 claims description 61
- 238000000605 extraction Methods 0.000 claims description 50
- 230000006870 function Effects 0.000 claims description 31
- 238000012360 testing method Methods 0.000 claims description 30
- 230000000007 visual effect Effects 0.000 claims description 24
- 238000012549 training Methods 0.000 claims description 19
- 238000003066 decision tree Methods 0.000 claims description 11
- 238000007781 pre-processing Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 10
- 238000005070 sampling Methods 0.000 claims description 8
- 238000004806 packaging method and process Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 15
- 238000005516 engineering process Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 7
- 239000013598 vector Substances 0.000 description 7
- 238000013473 artificial intelligence Methods 0.000 description 6
- 230000006835 compression Effects 0.000 description 6
- 238000007906 compression Methods 0.000 description 6
- 239000000284 extract Substances 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 6
- 238000001228 spectrum Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 3
- 238000012216 screening Methods 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 238000007667 floating Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000005538 encapsulation Methods 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/75—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Library & Information Science (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
本申请提供一种视频文件的分类方法、视频文件的分类装置、计算机可读存储介质及电子设备;涉及视频处理技术领域;包括:当检测到上传的视频文件时,获取视频文件对应的描述信息和用户信息,解码视频文件得到对应的音频内容以及视频帧集合;对音频内容进行文本识别得到音频内容对应的文本信息,对文本信息和描述信息进行分词得到分词集合;根据视频帧集合和分词集合生成视频文件对应的第一分类结果,根据音频内容生成视频文件对应的第二分类结果,根据用户信息生成视频文件对应的第三分类结果;根据上述分类结果对视频文件进行分类。上述方法可以通过视频文件的多维度信息对视频文件进行识别,以提升对于视频文件的识别准确率。
Description
技术领域
本申请涉及视频处理技术领域,具体而言,涉及一种视频文件的分类方法、视频文件的分类装置、计算机可读存储介质及电子设备。
背景技术
随着科技的不断发展,计算机可以通过执行相关的算法识别图像、语音、视频等多媒体文件,还可以对多媒体文件进行分类,以减少人们手动分类的工作量,提升人们的工作效率。其中,对于视频分类的方法通常包括以下几个步骤:获取视频内容,根据对视频内容的识别确定该视频所属的类别,如,生活类、舞蹈类等。但是,视频内容有时与其所属的类别关联较弱,例如,视频内容中包括人手控制玩偶跳舞的内容,计算机容易将其识别为舞蹈类,但其实该视频属于生活类。因此,上述这种分类方式通常会存在分类不准确的问题。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本申请的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本申请的目的在于提供一种视频文件的分类方法、视频文件的分类装置、计算机可读存储介质及电子设备,可以通过视频文件的多维度信息对视频文件进行识别,以提升对于视频文件的识别准确率。
本申请的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本申请的实践而习得。
根据本申请的第一方面,提供一种视频文件的分类方法,包括:
当检测到上传的视频文件时,获取视频文件对应的描述信息和用户信息,解码视频文件,得到视频文件对应的音频内容以及视频帧集合;
对音频内容进行文本识别,得到音频内容对应的文本信息,并对文本信息和描述信息进行分词处理,得到分词集合;
根据视频帧集合和分词集合生成与视频文件对应的第一分类结果,根据音频内容生成与视频文件对应的第二分类结果,根据用户信息生成与视频文件对应的第三分类结果;
根据第一分类结果、第二分类结果以及第三分类结果对视频文件进行分类。
在本申请的一种示例性实施例中,获取视频文件对应的描述信息和用户信息,包括:
检测视频文件对应的信息输入区域内的输入内容,并将输入内容确定为描述信息;
根据视频文件的上传请求确定与上传请求对应的用户信息。
在本申请的一种示例性实施例中,解码视频文件,得到视频文件对应的音频内容以及视频帧集合,包括:
将流媒体协议的视频文件解析为封装格式的视频数据;
对视频数据进行解封装,得到音频压缩数据和视频压缩数据;
解码音频压缩数据得到音频内容,解码视频压缩数据得到视频帧集合。
在本申请的一种示例性实施例中,对音频内容进行文本识别,得到音频内容对应的文本信息,包括:
提取音频内容中的音频特征;
根据预训练的语言模型和预训练的声学模型识别音频特征对应的文本信息。
在本申请的一种示例性实施例中,根据视频帧集合和分词集合生成与视频文件对应的第一分类结果,包括:
将视频帧集合进行预处理得到目标视频帧集合;其中,目标视频帧集合中的视频帧数量小于视频帧集合中的视频帧数量;
将目标视频帧集合输入第一特征提取网络,通过第一特征提取网络提取目标视频帧集合对应的视觉特征;
将分词集合输入第二特征提取网络,通过第二特征提取网络提取分词集合对应的文本信息特征;
将视觉特征和文本信息特征进行拼接,并对拼接结果进行分类,得到视频文件对应的第一分类结果。
在本申请的一种示例性实施例中,将视频帧集合进行预处理得到目标视频帧集合,包括:
将视频帧集合中各视频帧的当前格式转换为目标格式;
对格式转换后的视频帧集合进行采样,得到目标视频帧集合。
在本申请的一种示例性实施例中,根据音频内容生成与视频文件对应的第二分类结果之前,上述方法还可以包括以下步骤:
通过各预设类别标签下的样本音频训练音频分类网络;
抽取历史时段中的音频数据测试训练后的音频分类网络,得到测试结果;
根据测试结果将音频特征高于预设相似度的音频数据所对应的预设类别进行合并,并根据合并结果更新音频分类网络的参数。
在本申请的一种示例性实施例中,根据音频内容生成与视频文件对应的第二分类结果,包括:
将音频内容对应的频谱图输入参数更新后的音频分类网络,通过参数更新后的音频分类网络确定频谱图对应的音频特征序列;
对音频特征序列进行分类,得到视频文件对应的第二分类结果。
在本申请的一种示例性实施例中,根据用户信息生成与视频文件对应的第三分类结果之前,上述方法还可以包括以下步骤:
根据样本用户信息集合中各样本用户信息对应的发文时间确定各样本用户信息分别对应的发文权重;
通过用户信息分类网络对样本用户信息进行分类,得到样本分类结果;
根据样本分类结果、发文权重以及样本分类结果对应的原始分类结果确定损失函数;
根据损失函数调整用户信息分类网络的参数。
在本申请的一种示例性实施例中,根据用户信息生成与视频文件对应的第三分类结果,包括:
根据用户特征查找表确定与用户信息相对应的用户特征数据;
将用户特征数据输入参数调整后的用户信息分类网络,并根据参数调整后的用户信息分类网络确定用户特征数据对应的用户特征序列;
对用户特征序列进行分类,得到视频文件对应的第三分类结果。
在本申请的一种示例性实施例中,根据第一分类结果、第二分类结果以及第三分类结果对视频文件进行分类,包括:
将第一分类结果、第二分类结果以及第三分类结果输入融合网络;
通过融合网络中的多个决策树对第一分类结果、第二分类结果以及第三分类结果进行分类;
根据融合权重将第一分类结果、第二分类结果以及第三分类结果分别对应的分类结果进行融合得到融合结果,融合结果由多个概率元素组成;
根据融合结果对视频文件进行分类。
在本申请的一种示例性实施例中,根据融合结果对视频文件进行分类,包括:
从融合结果中选取符合分类标准的目标概率元素;
将目标概率元素所属的预设类别确定为视频文件对应的类别。
根据本申请的第二方面,提供一种视频文件的分类装置,包括信息获取单元、视频解码单元、文本识别单元、分词处理单元、分类结果生成单元以及视频分类单元,其中:
信息获取单元,用于当检测到上传的视频文件时,获取视频文件对应的描述信息和用户信息;
视频解码单元,用于解码视频文件,得到视频文件对应的音频内容以及视频帧集合;
文本识别单元,用于对音频内容进行文本识别,得到音频内容对应的文本信息;
分词处理单元,用于对文本信息和描述信息进行分词处理,得到分词集合;
分类结果生成单元,用于根据视频帧集合和分词集合生成与视频文件对应的第一分类结果,根据音频内容生成与视频文件对应的第二分类结果,根据用户信息生成与视频文件对应的第三分类结果;
视频分类单元,用于根据第一分类结果、第二分类结果以及第三分类结果对视频文件进行分类。
在本申请的一种示例性实施例中,信息获取单元获取视频文件对应的描述信息和用户信息的方式具体可以为:
信息获取单元检测视频文件对应的信息输入区域内的输入内容,并将输入内容确定为描述信息;
信息获取单元根据视频文件的上传请求确定与上传请求对应的用户信息。
在本申请的一种示例性实施例中,视频解码单元解码视频文件,得到视频文件对应的音频内容以及视频帧集合的方式具体可以为:
视频解码单元将流媒体协议的视频文件解析为封装格式的视频数据;
视频解码单元对视频数据进行解封装,得到音频压缩数据和视频压缩数据;
视频解码单元解码音频压缩数据得到音频内容,解码视频压缩数据得到视频帧集合。
在本申请的一种示例性实施例中,文本识别单元对音频内容进行文本识别,得到音频内容对应的文本信息的方式具体可以为:
文本识别单元提取音频内容中的音频特征;
文本识别单元根据预训练的语言模型和预训练的声学模型识别音频特征对应的文本信息。
在本申请的一种示例性实施例中,分类结果生成单元根据视频帧集合和分词集合生成与视频文件对应的第一分类结果的方式具体可以为:
分类结果生成单元将视频帧集合进行预处理得到目标视频帧集合;其中,目标视频帧集合中的视频帧数量小于视频帧集合中的视频帧数量;
分类结果生成单元将目标视频帧集合输入第一特征提取网络,通过第一特征提取网络提取目标视频帧集合对应的视觉特征;
分类结果生成单元将分词集合输入第二特征提取网络,通过第二特征提取网络提取分词集合对应的文本信息特征;
分类结果生成单元将视觉特征和文本信息特征进行拼接,并对拼接结果进行分类,得到视频文件对应的第一分类结果。
在本申请的一种示例性实施例中,分类结果生成单元将视频帧集合进行预处理得到目标视频帧集合的方式具体可以为:
分类结果生成单元将视频帧集合中各视频帧的当前格式转换为目标格式;
分类结果生成单元对格式转换后的视频帧集合进行采样,得到目标视频帧集合。
在本申请的一种示例性实施例中,上述装置还可以包括网络训练单元、网络测试单元、类别合并单元以及参数调整单元,其中:
网络训练单元,用于在分类结果生成单元根据音频内容生成与视频文件对应的第二分类结果之前,通过各预设类别标签下的样本音频训练音频分类网络;
网络测试单元,用于抽取历史时段中的音频数据测试训练后的音频分类网络,得到测试结果;
类别合并单元,用于根据测试结果将音频特征高于预设相似度的音频数据所对应的预设类别进行合并;
参数调整单元,用于根据合并结果更新音频分类网络的参数。
在本申请的一种示例性实施例中,分类结果生成单元根据音频内容生成与视频文件对应的第二分类结果的方式具体可以为:
分类结果生成单元将音频内容对应的频谱图输入参数更新后的音频分类网络,通过参数更新后的音频分类网络确定频谱图对应的音频特征序列;
分类结果生成单元对音频特征序列进行分类,得到视频文件对应的第二分类结果。
在本申请的一种示例性实施例中,上述装置还可以包括发文权重确定单元、样本用户信息分类单元和损失函数确定单元,其中:
发文权重确定单元,用于在分类结果生成单元根据用户信息生成与视频文件对应的第三分类结果之前,根据样本用户信息集合中各样本用户信息对应的发文时间确定各样本用户信息分别对应的发文权重;
样本用户信息分类单元,用于通过用户信息分类网络对样本用户信息进行分类,得到样本分类结果;
损失函数确定单元,用于根据样本分类结果、发文权重以及样本分类结果对应的原始分类结果确定损失函数;
参数调整单元,还用于根据损失函数调整用户信息分类网络的参数。
在本申请的一种示例性实施例中,分类结果生成单元根据用户信息生成与视频文件对应的第三分类结果的方式具体可以为:
分类结果生成单元根据用户特征查找表确定与用户信息相对应的用户特征数据;
分类结果生成单元将用户特征数据输入参数调整后的用户信息分类网络,并根据参数调整后的用户信息分类网络确定用户特征数据对应的用户特征序列;
分类结果生成单元对用户特征序列进行分类,得到视频文件对应的第三分类结果。
在本申请的一种示例性实施例中,视频分类单元根据第一分类结果、第二分类结果以及第三分类结果对视频文件进行分类的方式具体可以为:
视频分类单元将第一分类结果、第二分类结果以及第三分类结果输入融合网络;
视频分类单元通过融合网络中的多个决策树对第一分类结果、第二分类结果以及第三分类结果进行分类;
视频分类单元根据融合权重将第一分类结果、第二分类结果以及第三分类结果分别对应的分类结果进行融合得到融合结果,融合结果由多个概率元素组成;
视频分类单元根据融合结果对视频文件进行分类。
在本申请的一种示例性实施例中,视频分类单元根据融合结果对视频文件进行分类的方式具体可以为:
视频分类单元从融合结果中选取符合分类标准的目标概率元素;
视频分类单元将目标概率元素所属的预设类别确定为视频文件对应的类别。
根据本申请的第三方面,提供一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一项所述的方法。
根据本申请的第四方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的方法。
本申请示例性实施例可以具有以下部分或全部有益效果:
在本申请的一示例实施方式所提供的视频文件的分类方法中,可以当检测到上传的视频文件时,获取视频文件对应的描述信息(如,这个视频是跳舞视频哦)和用户信息(如,用户ID:47826天天),解码视频文件,得到视频文件对应的音频内容以及视频帧集合;进而,可以对音频内容进行文本识别,得到音频内容对应的文本信息(如,“我和我的祖国,一刻也不能分割”),并对文本信息和描述信息进行分词处理,得到分词集合;进而,可以根据视频帧集合和分词集合生成与视频文件对应的第一分类结果,根据音频内容生成与视频文件对应的第二分类结果,根据用户信息生成与视频文件对应的第三分类结果;进而,可以根据第一分类结果、第二分类结果以及第三分类结果对视频文件进行分类。依据上述方案描述,本申请一方面可以通过视频文件的多维度信息对视频文件进行识别,以提升对于视频文件的识别准确率,改善用户的使用体验,提升用户的使用黏度;另一方面,还能够通过自动化视频分类,降低人工分类视频的成本。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本申请。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了可以应用本申请实施例的一种视频文件的分类方法及视频文件的分类装置的示例性***架构的示意图;
图2示出了适于用来实现本申请实施例的电子设备的计算机***的结构示意图;
图3示意性示出了根据本申请的一个实施例的视频文件的分类方法的流程图;
图4示意性示出了根据本申请的一个实施例中根据视频帧集合和分词集合生成与视频文件对应的第一分类结果的模块示意图;
图5示意性示出了根据本申请的另一个实施例的视频文件的分类方法的流程图;
图6示意性示出了根据本申请的一个实施例中视频文件的分类方法的模块示意图;
图7示意性示出了根据本申请的一个实施例中的视频文件的分类装置的结构框图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本申请将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本申请的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本申请的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本申请的各方面变得模糊。
此外,附图仅为本申请的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
图1示出了可以应用本申请实施例的一种视频文件的分类方法及视频文件的分类装置的示例性应用环境的***架构的示意图。
如图1所示,***架构100可以包括终端设备101、102、103中的一个或多个,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。终端设备101、102、103可以是具有显示屏的各种电子设备,包括但不限于台式计算机、便携式计算机、智能手机和平板电脑等等。应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。比如服务器105可以是多个服务器组成的服务器集群等。
本申请实施例所提供的视频文件的分类方法一般由终端设备101、102或103执行,相应地,视频文件的分类装置一般设置于终端设备101、102或103中。但本领域技术人员容易理解的是,本申请实施例所提供的视频文件的分类方法也可以由服务器105执行,相应的,视频文件的分类装置也可以设置于服务器105中,本示例性实施例中对此不做特殊限定。举例而言,在一种示例性实施例中,服务器105可以当检测到上传的视频文件时,获取视频文件对应的描述信息和用户信息,解码视频文件,得到视频文件对应的音频内容以及视频帧集合;对音频内容进行文本识别,得到音频内容对应的文本信息,并对文本信息和描述信息进行分词处理,得到分词集合;根据视频帧集合和分词集合生成与视频文件对应的第一分类结果,根据音频内容生成与视频文件对应的第二分类结果,根据用户信息生成与视频文件对应的第三分类结果;根据第一分类结果、第二分类结果以及第三分类结果对视频文件进行分类。
图2示出了适于用来实现本申请实施例的电子设备的计算机***的结构示意图。
需要说明的是,图2示出的电子设备的计算机***200仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图2所示,计算机***200包括中央处理单元(CPU)201,其可以根据存储在只读存储器(ROM)202中的程序或者从存储部分208加载到随机访问存储器(RAM)203中的程序而执行各种适当的动作和处理。在RAM 203中,还存储有***操作所需的各种程序和数据。CPU201、ROM 202以及RAM 203通过总线204彼此相连。输入/输出(I/O)接口205也连接至总线204。
以下部件连接至I/O接口205:包括键盘、鼠标等的输入部分206;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分207;包括硬盘等的存储部分208;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分209。通信部分209经由诸如因特网的网络执行通信处理。驱动器210也根据需要连接至I/O接口205。可拆卸介质211,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器210上,以便于从其上读出的计算机程序根据需要被安装入存储部分208。
特别地,根据本申请的实施例,下文参考流程图描述的过程可以被实现为计算机软件程序。例如,本申请的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分209从网络上被下载和安装,和/或从可拆卸介质211被安装。在该计算机程序被中央处理单元(CPU)201执行时,执行本申请的方法和装置中限定的各种功能。
人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用***。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。
人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互***、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。
目前,机器学习可以应用于视频分类领域,具体地,可以利用Inception网络模型对待识别视频包含的每帧图像提取图像特征,并利用LSTM网络对提取的每帧图像的图像特征进行处理,以及将处理后的每帧图像的图像特征分别输入全连接层得到每帧图像对应的预设C维的输出,进而,可以将各帧图像对应的预设C维的输出在每个维度进行融合得到一个新的C维输出,根据新的C维输出确定所述待识别视频的行为类别。但是,这种方式会存在所采用的帧图片数量较大容易对CPU造成计算负担的问题,并且,帧图片特征提取加特征融合的方式不利于对视频的时间序列特征建模,此外,由于所依据的维度信息较少,因此也容易造成分类错误的问题。
基于上述问题,本示例实施方式提供了一种视频文件的分类方法。该视频文件的分类方法可以应用于上述服务器105,也可以应用于上述终端设备101、102、103中的一个或多个,本示例性实施例中对此不作特殊限定。参考图3所示,该视频文件的分类方法可以包括以下步骤S310至步骤S340:
步骤S310:当检测到上传的视频文件时,获取视频文件对应的描述信息和用户信息,解码视频文件,得到视频文件对应的音频内容以及视频帧集合。
步骤S320:对音频内容进行文本识别,得到音频内容对应的文本信息,并对文本信息和描述信息进行分词处理,得到分词集合。
步骤S330:根据视频帧集合和分词集合生成与视频文件对应的第一分类结果,根据音频内容生成与视频文件对应的第二分类结果,根据用户信息生成与视频文件对应的第三分类结果。
步骤S340:根据第一分类结果、第二分类结果以及第三分类结果对视频文件进行分类。
下面,对于本示例实施方式的上述步骤进行更加详细的说明。
在步骤S310中,当检测到上传的视频文件时,获取视频文件对应的描述信息和用户信息,解码视频文件,得到视频文件对应的音频内容以及视频帧集合。
本申请实施例中,可选的,获取视频文件对应的描述信息和用户信息,包括:检测视频文件对应的信息输入区域内的输入内容,并将输入内容确定为描述信息;根据视频文件的上传请求确定与上传请求对应的用户信息。其中,描述信息为用户在信息输入区域内输入的内容,用户输入的内容可以为针对所述视频文件的视频标题、视频内容简介以及用户为视频文件标注的标签信息等信息中的一种或多种,本申请实施例不作限定。另外,输入方式可以为键入、语音输入或手势输入等,本申请实施例不作限定。
其中,视频文件对应的信息输入区域可以为一种可视化区域,可选的,可视化区域是一种可编辑区域,用户可以通过该可编辑区域编辑文字内容。当检测到输入内容时,可以进一步检测用于表示编辑完成的用户操作,进而,将输入内容确定为描述信息,描述信息用于描述所上传的视频文件。另外,上传请求用于请求上传视频文件,用户信息可以包括用户名,用户名可以由中文、英文、数字等字符中的一种或多种组成。
可见,实施该可选的实施例,能够通过对多维信息的获取,提升后续视频分类的准确率。
本申请实施例中,可选的,解码视频文件,得到视频文件对应的音频内容以及视频帧集合,包括:将流媒体协议的视频文件解析为封装格式的视频数据;对视频数据进行解封装,得到音频压缩数据和视频压缩数据;解码音频压缩数据得到音频内容,解码视频压缩数据得到视频帧集合。
其中,可选的,将流媒体协议的视频文件解析为封装格式的视频数据的方式具体可以为:删除流媒体协议的视频文件中的信令数据,得到封装格式的视频数据;其中,信令数据包括对播放控制数据(如,播放、暂停、停止等)以及对网络状态的描述数据等。另外,流媒体协议是服务器与客户端之间的通信规定,可以为HTTP、RTMP、MMS等。封装格式用于将视频码流和音频码流按照预设格式存储于同一文件中,该文件中的数据即为上述的视频数据,其中,预设格式可以为AVI、MP4、TS、FLV、MKV、RMVB等,本申请实施例不作限定。举例来说,将RTMP协议的视频文件解析为FLV格式的视频数据。
其中,可选的,对视频数据进行解封装,得到音频压缩数据和视频压缩数据的方式具体可以为:初始化视频数据,并读取初始化后的视频数据中的每一帧对应的音频压缩数据和视频压缩数据;其中,初始化视频数据具体包括:调用FFmpeg的API,FFmpeg(FastForward Mpeg)是一套可以用来记录、转换数字音频和视频并能将其转化为流的计算机程序,API(Application Programming Interface,应用程序接口)是预先定义的函数。
其中,可选的,音频压缩数据的格式可以为AAC、MP3、AC-3等,视频压缩数据的格式可以为H.264、MPEG2、VC-1等,本申请实施例不作限定。
可见,实施该可选的实施例,能够通过对视频的解码,得到视频中的音频内容以及视频帧集合,进一步细化了视频的维度信息,可以提升视频分类效率。
在步骤S320中,对音频内容进行文本识别,得到音频内容对应的文本信息,并对文本信息和描述信息进行分词处理,得到分词集合。
其中,可选的,对文本信息和描述信息进行分词处理,得到分词集合的方式具体可以为:对文本信息进行分词处理,得到第一分词子集合;对描述信息进行分词处理,得到第二分词子集合;将第一分词子集合与第二分词子集合的并集确定为上述的分词集合。
进一步地,对文本信息进行分词,得到第一分词子集合的方式可以包括:根据最大匹配分词算法、最短路径分词算法、基于N-Gram model的分词算法、生成式模型分词算法、判别式模型分词算法或神经网络分词算法等对文本信息进行分词,得到第一分词子集合。同理,对描述信息进行分词处理,得到第二分词子集合的方式也可以基于上述算法执行。
其中,根据最大匹配分词算法对文本信息进行分词,得到第一分词子集合的方式可以为:对文本信息进行正向最大取词,并根据逆序依次递减一个字符的方式对正向最大取词结果进行分词识别,得到识别结果,根据识别结果执行多轮正向最大取词,直到识别出所有分词,作为正向识别结果;对文本信息进行逆向最大取词,并根据逆序依次递减一个字符的方式对逆向最大取词结果进行分词识别,得到识别结果,根据识别结果执行多轮逆向最大取词,直到识别出所有分词,作为逆向识别结果;根据正向识别结果和逆向识别结果输出第一分词子集合。举例来说,若文本信息为“蓝色的天空上飘着白色的云朵”,正向最大取词结果可以为“蓝色的天空上”,匹配“蓝色的天空上”与词典中的词汇,若匹配失败,则逆序递减一个字符,得到“蓝色的天空”,若进一步匹配失败,则进一步逆序递减一个字符,得到“蓝色的天”,当递减至“蓝色”时,与词典匹配成功,因此,根据识别结果“蓝色”可以确定第二轮正向最大取词“的天空上飘着”,重复上述步骤,直到执行完文本信息的全部内容。
本申请实施例中,可选的,对音频内容进行文本识别,得到音频内容对应的文本信息,包括:提取音频内容中的音频特征;根据预训练的语言模型和预训练的声学模型识别音频特征对应的文本信息。
其中,可选的,提取音频内容中的音频特征的方式具体可以为:对音频内容进行首尾端静音切除,得到目标音频内容。进而,对目标音频内容进行分帧,得到多个音频片段,其中,多个音频片段中任意两个音频片段可以存在重叠也可以不存在重叠,本申请实施例不作限定。进而,对多个音频片段进行梅尔频率倒谱系数变换,得到观察序列,将观察序列作为音频内容对应的音频特征;其中,观察序列可以是M行N列的矩阵,M为声学特征的维数,N为视频文件的帧数,M和N为正整数。另外,梅尔频率倒谱系数(Mel Frequency CepstralCoefficents,MFCC)是一种表示声音的短期功率谱的方法,具体为:基于对数功率谱在非线性Mel尺度上的线性余弦变换。
进一步地,对多个音频片段进行梅尔频率倒谱系数变换,得到观察序列的方式具体可以为:对多个音频片段进行预加重处理、分帧处理以及加窗处理,得到多个音频片段分别对应的音频信号,对音频信号进行快速傅里叶变换,得到音频信号对应的能量谱,通过三角带通滤波器筛选能量谱,并对筛选结果进行对数运算以及动态差分参数的提取,进而得到观察序列。
其中,可选的,根据预训练的语言模型和预训练的声学模型识别音频特征对应的文本信息的方式具体可以为:通过预训练的声学模型(AM)识别音频特征对应的音素信息;通过预设字典识别音素信息对应的多个字符;根据预训练的语言模型(LM)根据多个字符生成文本信息,该文本信息与音频特征相对应。其中,需要说明的是,音素信息中可以包括多个音素,一个字符由多个音素组成,一个音素由多个状态组成,音频内容中多个音频帧对应一个状态,状态是用于表征多个音频帧的最小单元。
可见,实施该可选的实施例,能够识别视频对应的音频文本信息,作为分类因素,提升对于视频分类的准确率。
在步骤S330中,根据视频帧集合和分词集合生成与视频文件对应的第一分类结果,根据音频内容生成与视频文件对应的第二分类结果,根据用户信息生成与视频文件对应的第三分类结果。
本申请实施例中,可选的,根据视频帧集合和分词集合生成与视频文件对应的第一分类结果,包括:将视频帧集合进行预处理得到目标视频帧集合;其中,目标视频帧集合中的视频帧数量小于视频帧集合中的视频帧数量;将目标视频帧集合输入第一特征提取网络,通过第一特征提取网络提取目标视频帧集合对应的视觉特征;将分词集合输入第二特征提取网络,通过第二特征提取网络提取分词集合对应的文本信息特征;将视觉特征和文本信息特征进行拼接,并对拼接结果进行分类,得到视频文件对应的第一分类结果。
其中,可选的,第一特征提取网络可以为TSM,将目标视频帧集合输入第一特征提取网络,通过第一特征提取网络提取目标视频帧集合对应的视觉特征的方式具体可以为:对目标视频帧集合中的视频帧进行卷积处理,并通过共识函数(The segmental consensusfunction)对卷积结果进行融合产生段共识(segmental consensus),通过段共识确定目标视频帧集合对应的视觉特征,其中,视觉特征的表示方式可以为向量。通过TMS网络可以提升视频分类精度以及视频分类效率。
其中,可选的,第二特征提取网络可以为LSTM网络与self-Attention机制的结合,将分词集合输入第二特征提取网络,通过第二特征提取网络提取分词集合对应的文本信息特征的方式具体可以为:通过第二特征提取网络计算分词集合中各分词对应的特征数据(特征数据可以表示为向量),根据第二特征提取网络中记忆单元对各分词对应的特征数据进行筛选,将筛选结果确定为文本信息特征;其中,文本信息特征的表示方式可以为向量。另外,需要说明的是,LSTM(Long Short-Term Memory,长短期记忆网络)是一种时间循环神经网络,self-Attention机制可以应用于自然语言识别。
其中,可选的,将视觉特征和文本信息特征进行拼接,并对拼接结果进行分类,得到视频文件对应的第一分类结果的方式具体可以为:将视觉特征和文本信息特征中的元素进行拼接,拼接结果的维度是视觉特征和文本信息特征的维度之和;进而,可以将拼接结果输入多层感知机(MLP,Multilayer Perceptron),通过多层感知机确定拼接结果对应的待分类特征向量,通过激活函数将待分类特征向量转换为非线性结果;进而,可以计算非线性结果属于各预设类别的概率,得到多个概率值(如,0.1、0.5、0.3、0.1),将多个概率值确定为第一分类结果。其中,预设类别用于表征音频类型,例如,人声、动物声等,又例如,综艺音频、纪录片类型等,本申请实施例不作限定。
请参阅图4,图4示意性示出了根据本申请的一个实施例中根据视频帧集合和分词集合生成与视频文件对应的第一分类结果的模块示意图。如图4所示,可以将目标视频帧集合输入第一特征提取网络401,通过第一特征提取网络401提取目标视频帧集合对应的视觉特征。并且,将分词集合输入第二特征提取网络402,通过第二特征提取网络402提取分词集合对应的文本信息特征。进而,将视觉特征和文本信息特征进行拼接,并通过分类器403对拼接结果进行分类,得到视频文件对应的第一分类结果。
可见,实施该可选的实施例,提升对于视频文件的时间序列的特征提取能力。
进一步可选的,将视频帧集合进行预处理得到目标视频帧集合,包括:将视频帧集合中各视频帧的当前格式转换为目标格式;对格式转换后的视频帧集合进行采样,得到目标视频帧集合。
其中,示例性的,对于将视频帧集合中各视频帧的当前格式转换为目标格式,可以举例为,将视频帧集合中各视频帧由rmvb格式的转换成mp4格式,其中,目标格式可以为方便对视频帧进行处理的格式。
其中,可选的,对格式转换后的视频帧集合进行采样,得到目标视频帧集合的方式具体可以为:通过时间分割网络(Temporal Segment Network,TSN)对格式转换后的视频帧集合进行随机采样,得到目标视频帧集合;其中,目标视频帧集合中的视频帧数量既可以为8个。另外,TSN是一种特定的基于长范围时间结构的用于视频动作识别的网络。
可见,实施该可选的实施例,能够通过对于视频帧的格式转换以及采样,能够减少样本量,提升视频分类的效率。
本申请实施例中,可选的,根据音频内容生成与视频文件对应的第二分类结果之前,上述方法还可以包括以下步骤:通过各预设类别标签下的样本音频训练音频分类网络;抽取历史时段中的音频数据测试训练后的音频分类网络,得到测试结果;根据测试结果将音频特征高于预设相似度的音频数据所对应的预设类别进行合并,并根据合并结果更新音频分类网络的参数。
其中,可选的,通过各预设类别标签下的样本音频训练音频分类网络的方式可以为:将各预设类别标签下的样本音频输入音频分类网络;通过音频分类网络确定各样本音频对应的音频特征序列;根据各样本音频对应的音频特征序列计算样本音频属于各预设类别的概率,得到多个概率值,将多个概率值确定为第二分类结果。
其中,可选的,抽取历史时段中的音频数据测试训练后的音频分类网络,得到测试结果的方式具体可以为:随机抽取历史时段中的音频数据作为测试集,通过测试机测试训练后的音频分类网络,得到测试结果;其中,历史时段中的音频数据可以为历史上传的视频文件对应的音频数据。
其中,可选的,根据所述测试结果将音频特征高于预设相似度的音频数据所对应的预设类别进行合并的方式具体可以为:如果测试结果中包括音频特征高于预设相似度的音频数据,则确定这些音频数据分别对应的预设类别,进而将这些预设类别进行合并。
其中,可选的,根据合并结果更新音频分类网络的参数的方式具体可以为:根据合并结果中的预设类别确定为音频分类网络中新的预设类别,并根据新的预设类别更新音频分类网络的参数;其中,音频分类网络的参数包括权重值、偏置项等,本申请实施例不作限定。
可见,实施该可选的实施例,能够有效利用视频中的音频信息,提升对于视频分类的精度。
进一步可选的,根据音频内容生成与视频文件对应的第二分类结果,包括:将音频内容对应的频谱图输入参数更新后的音频分类网络,通过参数更新后的音频分类网络确定频谱图对应的音频特征序列;对音频特征序列进行分类,得到视频文件对应的第二分类结果。
其中,可选的,音频特征序列的表示方式可以为向量。
其中,可选的,对音频特征序列进行分类,得到视频文件对应的第二分类结果的方式具体可以为:计算音频特征序列属于上述实施例中新的预设类别的概率,得到概率集合(如,0.1、0.5、0.3、0.1),将概率集合确定为视频文件对应的第二分类结果。
可见,实施该可选的实施例,能够根据视频文件的音频内容对视频文件进行分类,结合该分类结果,可以提升最终对于视频文件分类的准确率。
本申请实施例中,可选的,根据用户信息生成与视频文件对应的第三分类结果之前,上述方法还可以包括以下步骤:根据样本用户信息集合中各样本用户信息对应的发文时间确定各样本用户信息分别对应的发文权重;通过用户信息分类网络对样本用户信息进行分类,得到样本分类结果;根据样本分类结果、发文权重以及样本分类结果对应的原始分类结果确定损失函数;根据损失函数调整用户信息分类网络的参数。
其中,样本用户信息集合中不包括步骤S310中上传的视频文件对应的用户信息,样本用户信息集合中包括一个或多个样本用户信息,样本用户信息的发文时间为样本用户信息对应的用户上传视频文件的时间,样本用户信息对应的用户上传视频文件的时间越早,发文权重α越小,时间越晚,发文权重α越大,发文权重α大于0小于等于1。
其中,可选的,通过用户信息分类网络对样本用户信息进行分类,得到样本分类结果的方式具体可以为:通过用户信息分类网络计算样本用户信息对应的用户特征序列;计算用户特征序列属于各预设类别的概率,得到概率集合;将概率集合中的最大概率对应的预设类别确定为该样本用户信息所属的类别,作为样本分类结果;其中,用户特征序列可以通过向量表示。
其中,可选的,根据样本分类结果、发文权重以及样本分类结果对应的原始分类结果确定损失函数的方式具体可以为:基于表达式loss=α*CE_loss确定损失函数loss,其中,α为发文权重,CE_loss为用户信息分类网络的标准损失函数,该标准损失函数用于表征样本分类结果与样本分类结果对应的原始分类结果之间的差异。
可见,实施该可选的实施例,能够结合发文时间对用户信息分类网络,进而提升用户信息分类网络对于视频文件的分类准确率。
进一步可选的,根据用户信息生成与视频文件对应的第三分类结果,包括:根据用户特征查找表确定与用户信息相对应的用户特征数据;将用户特征数据输入参数调整后的用户信息分类网络,并根据参数调整后的用户信息分类网络确定用户特征数据对应的用户特征序列;对用户特征序列进行分类,得到视频文件对应的第三分类结果。
其中,可选的,根据用户特征查找表确定与用户信息相对应的用户特征数据的方式具体可以为:根据用户特征查找表以及用户信息中的字符查询用户信息对应的字符数据,根据字符数据生成与用户信息相对应的用户特征数据,用户特征数据可以通过字符串进行表示,如,738261786。
其中,可选的,对用户特征序列进行分类,得到视频文件对应的第三分类结果的方式具体可以为:计算用户特征序列属于各预设类别的概率,得到概率集合,将概率集合确定为视频文件对应的第三分类结果。
可见,实施该可选的实施例,能够根据用户信息对视频文件进行分类,结合该分类结果,可以提升最终对于视频文件分类的准确率。
在步骤S340中,根据第一分类结果、第二分类结果以及第三分类结果对视频文件进行分类。
其中,可选的,根据第一分类结果、第二分类结果以及第三分类结果对视频文件进行分类的方式可以为:获取视频文件的光流特征和视频特效模板信息;结合光流特征、视频特效模板信息、第一分类结果、第二分类结果以及第三分类结果对视频文件进行分类。
本申请实施例中,可选的,根据第一分类结果、第二分类结果以及第三分类结果对视频文件进行分类,包括:将第一分类结果、第二分类结果以及第三分类结果输入融合网络;通过融合网络中的多个决策树对第一分类结果、第二分类结果以及第三分类结果进行分类;根据融合权重将第一分类结果、第二分类结果以及第三分类结果分别对应的分类结果进行融合得到融合结果,融合结果由多个概率元素组成;根据融合结果对视频文件进行分类。
其中,可选的,通过融合网络中的多个决策树对第一分类结果、第二分类结果以及第三分类结果进行分类的方式具体可以为:将第一分类结果、第二分类结果以及第三分类结果分别经过多个决策树进行计算,得到第一分类结果、第二分类结果以及第三分类结果分别对应的分类结果;其中,融合网络中包括多个决策树,决策树由多个节点构成,多个节点之间可以通过连边进行连接,不同的连边可以对应不同的权重,多个决策树之间可以存在共用节点。
其中,可选的,根据融合权重将第一分类结果、第二分类结果以及第三分类结果分别对应的分类结果进行融合得到融合结果的方式具体可以为:根据第一分类结果、第二分类结果以及第三分类结果分别对应的融合权重计算第一分类结果、第二分类结果以及第三分类结果中相同元素位的加权和,得到融合结果。其中融合结果中的概率元素与预设类别一一对应。举例来说,根据第一分类结果、第二分类结果以及第三分类结果分别对应的融合权重为3:3:4,第一分类结果、第二分类结果以及第三分类结果分别对应的分类结果为[0.1、0.1、0.2]、[0.3、0.3、0.1]、[0.2、0.1、0.2],计算得到的第一分类结果、第二分类结果以及第三分类结果中相同元素位的加权和可以为[2.0、1.6、1.7]。
可见,实施该可选的实施例,能够通过多种分类结果的融合确定出最终分类结果,进而提升对于视频文件的分类准确率。
进一步可选的,根据融合结果对视频文件进行分类,包括:从融合结果中选取符合分类标准的目标概率元素;将目标概率元素所属的预设类别确定为视频文件对应的类别。
其中,可选的,其中,分类标准可以包括阈值范围,如,大于等于1.8,从融合结果中选取符合分类标准的目标概率元素的方式具体可以为:从融合结果中选取属于阈值范围的概率元素(如,2.0),将其确定为目标概率元素。
其中,可选的,将目标概率元素所属的预设类别确定为视频文件对应的类别的方式具体可以为:确定目标概率元素所属的预设类别,将该预设类别确定为视频文件对应的类别,以实现对于视频文件的分类。
可见,实施该可选的实施例,能够提升对于视频文件的分类精度。
可见,实施图3所示的视频文件的分类方法,可以通过视频文件的多维度信息对视频文件进行识别,以提升对于视频文件的识别准确率,改善用户的使用体验,提升用户的使用黏度。此外,还能够通过自动化视频分类,降低人工分类视频的成本。
请参阅图5,图5示意性示出了根据本申请的另一个实施例的视频文件的分类方法的流程图。如图5所示,另一个实施例的视频文件的分类方法包括:步骤S500~步骤S522,其中:
步骤S500:当检测到上传的视频文件时,检测视频文件对应的信息输入区域内的输入内容,并将输入内容确定为描述信息,以及根据视频文件的上传请求确定与上传请求对应的用户信息。
步骤S502:将流媒体协议的视频文件解析为封装格式的视频数据,对视频数据进行解封装,得到音频压缩数据和视频压缩数据,解码音频压缩数据得到音频内容,解码视频压缩数据得到视频帧集合。
步骤S504:提取音频内容中的音频特征,根据预训练的语言模型和预训练的声学模型识别音频特征对应的文本信息,对文本信息和描述信息进行分词处理,得到分词集合。
步骤S506:将视频帧集合中各视频帧的当前格式转换为目标格式,对格式转换后的视频帧集合进行采样,得到目标视频帧集合;其中,目标视频帧集合中的视频帧数量小于视频帧集合中的视频帧数量。
步骤S508:将目标视频帧集合输入第一特征提取网络,通过第一特征提取网络提取目标视频帧集合对应的视觉特征,将分词集合输入第二特征提取网络;通过第二特征提取网络提取分词集合对应的文本信息特征。
步骤S510:将视觉特征和文本信息特征进行拼接,并对拼接结果进行分类,得到视频文件对应的第一分类结果。
步骤S512:通过各预设类别标签下的样本音频训练音频分类网络,抽取历史时段中的音频数据测试训练后的音频分类网络,得到测试结果,根据测试结果将音频特征高于预设相似度的音频数据所对应的预设类别进行合并,并根据合并结果更新音频分类网络的参数。
步骤S514:将音频内容对应的频谱图输入参数更新后的音频分类网络,通过参数更新后的音频分类网络确定频谱图对应的音频特征序列,对音频特征序列进行分类,得到视频文件对应的第二分类结果。
步骤S516:根据样本用户信息集合中各样本用户信息对应的发文时间确定各样本用户信息分别对应的发文权重,通过用户信息分类网络对样本用户信息进行分类,得到样本分类结果,根据样本分类结果、发文权重以及样本分类结果对应的原始分类结果确定损失函数,根据损失函数调整用户信息分类网络的参数。
步骤S518:根据用户特征查找表确定与用户信息相对应的用户特征数据,将用户特征数据输入参数调整后的用户信息分类网络,并根据参数调整后的用户信息分类网络确定用户特征数据对应的用户特征序列,对用户特征序列进行分类,得到视频文件对应的第三分类结果。
步骤S520:将第一分类结果、第二分类结果以及第三分类结果输入融合网络,通过融合网络中的多个决策树对第一分类结果、第二分类结果以及第三分类结果进行分类。
步骤S522:根据融合权重将第一分类结果、第二分类结果以及第三分类结果分别对应的分类结果进行融合得到融合结果,融合结果由多个概率元素组成,从融合结果中选取符合分类标准的目标概率元素,将目标概率元素所属的预设类别确定为视频文件对应的类别。
需要说明的是,步骤S500~步骤S522与图3中的各步骤及其实施例相对应,针对步骤S500~步骤S522的具体实施方式,请参阅图3及其实施例,此处不再赘述。
可见,实施图5所示的视频文件的分类方法,可以通过视频文件的多维度信息对视频文件进行识别,以提升对于视频文件的识别准确率,改善用户的使用体验,提升用户的使用黏度。此外,还能够通过自动化视频分类,降低人工分类视频的成本。
请参阅图6,图6示意性示出了根据本申请的一个实施例中视频文件的分类方法的模块示意图,如图6所示,视频文件的分类方法的模块示意图包括:解码模块601、图片预处理模块602、音频预处理模块603、文本识别模块604、分词模块605、特征查找模块606、第一特征提取网络+第二特征提取网络607、音频分类网络608、用户信息分类网络609以及融合网络610,其中:
解码模块601,用于解码视频文件,得到视频文件对应的音频内容以及视频帧集合。
图片预处理模块602,用于将视频帧集合中各视频帧的当前格式转换为目标格式,对格式转换后的视频帧集合进行采样,得到目标视频帧集合。
音频预处理模块603,用于确定音频内容对应的频谱图。
文本识别模块604,用于提取音频内容中的音频特征,根据预训练的语言模型和预训练的声学模型识别音频特征对应的文本信息。
分词模块605,用于对文本信息和描述信息进行分词处理,得到分词集合。
特征查找模块606,用于根据用户特征查找表确定与用户信息相对应的用户特征数据。
第一特征提取网络+第二特征提取网络607中,第一特征提取网络提取目标视频帧集合对应的视觉特征,第二特征提取网络提取分词集合对应的文本信息特征,进而,将视觉特征和文本信息特征进行拼接,并对拼接结果进行分类,得到视频文件对应的第一分类结果。
音频分类网络608,用于确定频谱图对应的音频特征序列,对音频特征序列进行分类,得到视频文件对应的第二分类结果。
用户信息分类网络609,用于确定用户特征数据对应的用户特征序列,对用户特征序列进行分类,得到视频文件对应的第三分类结果。
融合网络610,用于对第一分类结果、第二分类结果以及第三分类结果进行分类,根据融合权重将第一分类结果、第二分类结果以及第三分类结果分别对应的分类结果进行融合得到融合结果,从融合结果中选取符合分类标准的目标概率元素,将目标概率元素所属的预设类别确定为视频文件对应的类别,即,分类结果。
可见,实施图6所示的视频文件的分类方法的模块示意图,可以通过视频文件的多维度信息对视频文件进行识别,以提升对于视频文件的识别准确率,改善用户的使用体验,提升用户的使用黏度。此外,还能够通过自动化视频分类,降低人工分类视频的成本。
进一步的,本示例实施方式中,还提供了一种视频文件的分类装置。参考图7所示,该视频文件的分类装置700可以包括信息获取单元701、视频解码单元702、文本识别单元703、分词处理单元704、分类结果生成单元705以及视频分类单元706,其中:
信息获取单元701,用于当检测到上传的视频文件时,获取视频文件对应的描述信息和用户信息;
视频解码单元702,用于解码视频文件,得到视频文件对应的音频内容以及视频帧集合;
文本识别单元703,用于对音频内容进行文本识别,得到音频内容对应的文本信息;
分词处理单元704,用于对文本信息和描述信息进行分词处理,得到分词集合;
分类结果生成单元705,用于根据视频帧集合和分词集合生成与视频文件对应的第一分类结果,根据音频内容生成与视频文件对应的第二分类结果,根据用户信息生成与视频文件对应的第三分类结果;
视频分类单元706,用于根据第一分类结果、第二分类结果以及第三分类结果对视频文件进行分类。
可见,实施图7所示的视频文件的分类装置,可以通过视频文件的多维度信息对视频文件进行识别,以提升对于视频文件的识别准确率,改善用户的使用体验,提升用户的使用黏度。此外,还能够通过自动化视频分类,降低人工分类视频的成本。
在本申请的一种示例性实施例中,信息获取单元701获取视频文件对应的描述信息和用户信息的方式具体可以为:
信息获取单元701检测视频文件对应的信息输入区域内的输入内容,并将输入内容确定为描述信息;
信息获取单元701根据视频文件的上传请求确定与上传请求对应的用户信息。
可见,实施该示例性实施例,能能够通过对多维信息的获取,提升后续视频分类的准确率。
在本申请的一种示例性实施例中,视频解码单元702解码视频文件,得到视频文件对应的音频内容以及视频帧集合的方式具体可以为:
视频解码单元702将流媒体协议的视频文件解析为封装格式的视频数据;
视频解码单元702对视频数据进行解封装,得到音频压缩数据和视频压缩数据;
视频解码单元702解码音频压缩数据得到音频内容,解码视频压缩数据得到视频帧集合。
可见,实施该示例性实施例,能够通过对视频的解码,得到视频中的音频内容以及视频帧集合,进一步细化了视频的维度信息,可以提升视频分类效率。
在本申请的一种示例性实施例中,文本识别单元703对音频内容进行文本识别,得到音频内容对应的文本信息的方式具体可以为:
文本识别单元703提取音频内容中的音频特征;
文本识别单元703根据预训练的语言模型和预训练的声学模型识别音频特征对应的文本信息。
可见,实施该示例性实施例,能够识别视频对应的音频文本信息,作为分类因素,提升对于视频分类的准确率。
在本申请的一种示例性实施例中,分类结果生成单元705根据视频帧集合和分词集合生成与视频文件对应的第一分类结果的方式具体可以为:
分类结果生成单元705将视频帧集合进行预处理得到目标视频帧集合;其中,目标视频帧集合中的视频帧数量小于视频帧集合中的视频帧数量;
分类结果生成单元705将目标视频帧集合输入第一特征提取网络,通过第一特征提取网络提取目标视频帧集合对应的视觉特征;
分类结果生成单元705将分词集合输入第二特征提取网络,通过第二特征提取网络提取分词集合对应的文本信息特征;
分类结果生成单元705将视觉特征和文本信息特征进行拼接,并对拼接结果进行分类,得到视频文件对应的第一分类结果。
可见,实施该示例性实施例,提升对于视频文件的时间序列的特征提取能力。
在本申请的一种示例性实施例中,分类结果生成单元705将视频帧集合进行预处理得到目标视频帧集合的方式具体可以为:
分类结果生成单元705将视频帧集合中各视频帧的当前格式转换为目标格式;
分类结果生成单元705对格式转换后的视频帧集合进行采样,得到目标视频帧集合。
可见,实施该示例性实施例,能够通过对于视频帧的格式转换以及采样,能够减少样本量,提升视频分类的效率。
在本申请的一种示例性实施例中,上述装置还可以包括网络训练单元(未图示)、网络测试单元(未图示)、类别合并单元(未图示)以及参数调整单元(未图示),其中:
网络训练单元,用于在分类结果生成单元705根据音频内容生成与视频文件对应的第二分类结果之前,通过各预设类别标签下的样本音频训练音频分类网络;
网络测试单元,用于抽取历史时段中的音频数据测试训练后的音频分类网络,得到测试结果;
类别合并单元,用于根据测试结果将音频特征高于预设相似度的音频数据所对应的预设类别进行合并;
参数调整单元,用于根据合并结果更新音频分类网络的参数。
可见,实施该示例性实施例,能够有效利用视频中的音频信息,提升对于视频分类的精度。
在本申请的一种示例性实施例中,分类结果生成单元705根据音频内容生成与视频文件对应的第二分类结果的方式具体可以为:
分类结果生成单元705将音频内容对应的频谱图输入参数更新后的音频分类网络,通过参数更新后的音频分类网络确定频谱图对应的音频特征序列;
分类结果生成单元705对音频特征序列进行分类,得到视频文件对应的第二分类结果。
可见,实施该示例性实施例,能够根据视频文件的音频内容对视频文件进行分类,结合该分类结果,可以提升最终对于视频文件分类的准确率。
在本申请的一种示例性实施例中,上述装置还可以包括发文权重确定单元(未图示)、样本用户信息分类单元(未图示)和损失函数确定单元(未图示),其中:
发文权重确定单元,用于在分类结果生成单元705根据用户信息生成与视频文件对应的第三分类结果之前,根据样本用户信息集合中各样本用户信息对应的发文时间确定各样本用户信息分别对应的发文权重;
样本用户信息分类单元,用于通过用户信息分类网络对样本用户信息进行分类,得到样本分类结果;
损失函数确定单元,用于根据样本分类结果、发文权重以及样本分类结果对应的原始分类结果确定损失函数;
参数调整单元,还用于根据损失函数调整用户信息分类网络的参数。
可见,实施该示例性实施例,能够结合发文时间对用户信息分类网络,进而提升用户信息分类网络对于视频文件的分类准确率。
在本申请的一种示例性实施例中,分类结果生成单元705根据用户信息生成与视频文件对应的第三分类结果的方式具体可以为:
分类结果生成单元705根据用户特征查找表确定与用户信息相对应的用户特征数据;
分类结果生成单元705将用户特征数据输入参数调整后的用户信息分类网络,并根据参数调整后的用户信息分类网络确定用户特征数据对应的用户特征序列;
分类结果生成单元705对用户特征序列进行分类,得到视频文件对应的第三分类结果。
可见,实施该示例性实施例,能够根据用户信息对视频文件进行分类,结合该分类结果,可以提升最终对于视频文件分类的准确率。
在本申请的一种示例性实施例中,视频分类单元706根据第一分类结果、第二分类结果以及第三分类结果对视频文件进行分类的方式具体可以为:
视频分类单元706将第一分类结果、第二分类结果以及第三分类结果输入融合网络;
视频分类单元706通过融合网络中的多个决策树对第一分类结果、第二分类结果以及第三分类结果进行分类;
视频分类单元706根据融合权重将第一分类结果、第二分类结果以及第三分类结果分别对应的分类结果进行融合得到融合结果,融合结果由多个概率元素组成;
视频分类单元706根据融合结果对视频文件进行分类。
可见,实施该示例性实施例,能够通过多种分类结果的融合确定出最终分类结果,进而提升对于视频文件的分类准确率。
在本申请的一种示例性实施例中,视频分类单元706根据融合结果对视频文件进行分类的方式具体可以为:
视频分类单元706从融合结果中选取符合分类标准的目标概率元素;
视频分类单元706将目标概率元素所属的预设类别确定为视频文件对应的类别。
可见,实施该示例性实施例,能够提升对于视频文件的分类精度。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本申请的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
由于本申请的示例实施例的视频文件的分类装置的各个功能模块与上述视频文件的分类方法的示例实施例的步骤对应,因此对于本申请装置实施例中未披露的细节,请参照本申请上述的视频文件的分类方法的实施例。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该电子设备执行时,使得该电子设备实现上述实施例中所述的方法。
需要说明的是,本申请所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的***、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的***来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现,所描述的单元也可以设置在处理器中。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由下面的权利要求指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。
Claims (15)
1.一种视频文件的分类方法,其特征在于,包括:
当检测到上传的视频文件时,获取所述视频文件对应的描述信息和用户信息,解码所述视频文件,得到所述视频文件对应的音频内容以及视频帧集合;
对所述音频内容进行文本识别,得到所述音频内容对应的文本信息,并对所述文本信息和所述描述信息进行分词处理,得到分词集合;
根据所述视频帧集合和所述分词集合生成与所述视频文件对应的第一分类结果,根据所述音频内容生成与所述视频文件对应的第二分类结果,根据所述用户信息生成与所述视频文件对应的第三分类结果;
根据所述第一分类结果、所述第二分类结果以及所述第三分类结果对所述视频文件进行分类。
2.根据权利要求1所述的方法,其特征在于,获取所述视频文件对应的描述信息和用户信息,包括:
检测所述视频文件对应的信息输入区域内的输入内容,并将所述输入内容确定为描述信息;
根据所述视频文件的上传请求确定与所述上传请求对应的用户信息。
3.根据权利要求1所述的方法,其特征在于,解码所述视频文件,得到所述视频文件对应的音频内容以及视频帧集合,包括:
将流媒体协议的所述视频文件解析为封装格式的视频数据;
对所述视频数据进行解封装,得到音频压缩数据和视频压缩数据;
解码所述音频压缩数据得到所述音频内容,解码所述视频压缩数据得到所述视频帧集合。
4.根据权利要求1所述的方法,其特征在于,对所述音频内容进行文本识别,得到所述音频内容对应的文本信息,包括:
提取所述音频内容中的音频特征;
根据预训练的语言模型和预训练的声学模型识别所述音频特征对应的文本信息。
5.根据权利要求1所述的方法,其特征在于,根据所述视频帧集合和所述分词集合生成与所述视频文件对应的第一分类结果,包括:
将所述视频帧集合进行预处理得到目标视频帧集合;其中,所述目标视频帧集合中的视频帧数量小于所述视频帧集合中的视频帧数量;
将所述目标视频帧集合输入第一特征提取网络,通过所述第一特征提取网络提取所述目标视频帧集合对应的视觉特征;
将所述分词集合输入第二特征提取网络,通过所述第二特征提取网络提取所述分词集合对应的文本信息特征;
将所述视觉特征和所述文本信息特征进行拼接,并对拼接结果进行分类,得到所述视频文件对应的第一分类结果。
6.根据权利要求5所述的方法,其特征在于,将所述视频帧集合进行预处理得到目标视频帧集合,包括:
将所述视频帧集合中各视频帧的当前格式转换为目标格式;
对格式转换后的视频帧集合进行采样,得到目标视频帧集合。
7.根据权利要求1所述的方法,其特征在于,根据所述音频内容生成与所述视频文件对应的第二分类结果之前,所述方法还包括:
通过各预设类别标签下的样本音频训练所述音频分类网络;
抽取历史时段中的音频数据测试训练后的音频分类网络,得到测试结果;
根据所述测试结果将音频特征高于预设相似度的音频数据所对应的预设类别进行合并,并根据合并结果更新所述音频分类网络的参数。
8.根据权利要求7所述的方法,其特征在于,根据所述音频内容生成与所述视频文件对应的第二分类结果,包括:
将所述音频内容对应的频谱图输入参数更新后的音频分类网络,通过所述参数更新后的音频分类网络确定所述频谱图对应的音频特征序列;
对所述音频特征序列进行分类,得到所述视频文件对应的第二分类结果。
9.根据权利要求1所述的方法,其特征在于,根据所述用户信息生成与所述视频文件对应的第三分类结果之前,所述方法还包括:
根据样本用户信息集合中各样本用户信息对应的发文时间确定所述各样本用户信息分别对应的发文权重;
通过用户信息分类网络对所述样本用户信息进行分类,得到样本分类结果;
根据样本分类结果、所述发文权重以及所述样本分类结果对应的原始分类结果确定损失函数;
根据所述损失函数调整所述用户信息分类网络的参数。
10.根据权利要求9所述的方法,其特征在于,根据所述用户信息生成与所述视频文件对应的第三分类结果,包括:
根据用户特征查找表确定与所述用户信息相对应的用户特征数据;
将所述用户特征数据输入参数调整后的用户信息分类网络,并根据所述参数调整后的用户信息分类网络确定所述用户特征数据对应的用户特征序列;
对所述用户特征序列进行分类,得到所述视频文件对应的第三分类结果。
11.根据权利要求1所述的方法,其特征在于,根据所述第一分类结果、所述第二分类结果以及所述第三分类结果对所述视频文件进行分类,包括:
将所述第一分类结果、所述第二分类结果以及所述第三分类结果输入融合网络;
通过所述融合网络中的多个决策树对所述第一分类结果、所述第二分类结果以及所述第三分类结果进行分类;
根据融合权重将所述第一分类结果、所述第二分类结果以及所述第三分类结果分别对应的分类结果进行融合得到融合结果,所述融合结果由多个概率元素组成;
根据所述融合结果对所述视频文件进行分类。
12.根据权利要求11所述的方法,其特征在于,根据所述融合结果对所述视频文件进行分类,包括:
从所述融合结果中选取符合分类标准的目标概率元素;
将所述目标概率元素所属的预设类别确定为所述视频文件对应的类别。
13.一种视频文件的分类装置,其特征在于,包括:
信息获取单元,用于当检测到上传的视频文件时,获取所述视频文件对应的描述信息和用户信息;
视频解码单元,用于解码所述视频文件,得到所述视频文件对应的音频内容以及视频帧集合;
文本识别单元,用于对所述音频内容进行文本识别,得到所述音频内容对应的文本信息;
分词处理单元,用于对所述文本信息和所述描述信息进行分词处理,得到分词集合;
分类结果生成单元,用于根据所述视频帧集合和所述分词集合生成与所述视频文件对应的第一分类结果,根据所述音频内容生成与所述视频文件对应的第二分类结果,根据所述用户信息生成与所述视频文件对应的第三分类结果;
视频分类单元,用于根据所述第一分类结果、所述第二分类结果以及所述第三分类结果对所述视频文件进行分类。
14.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-12任一项所述的方法。
15.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1-12任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010224680.0A CN111488489B (zh) | 2020-03-26 | 2020-03-26 | 视频文件的分类方法、装置、介质及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010224680.0A CN111488489B (zh) | 2020-03-26 | 2020-03-26 | 视频文件的分类方法、装置、介质及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111488489A true CN111488489A (zh) | 2020-08-04 |
CN111488489B CN111488489B (zh) | 2023-10-24 |
Family
ID=71794489
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010224680.0A Active CN111488489B (zh) | 2020-03-26 | 2020-03-26 | 视频文件的分类方法、装置、介质及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111488489B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111901668A (zh) * | 2020-09-07 | 2020-11-06 | 三星电子(中国)研发中心 | 视频播放方法和装置 |
CN111931679A (zh) * | 2020-08-21 | 2020-11-13 | 腾讯科技(深圳)有限公司 | 动作识别方法、装置、设备及存储介质 |
CN112183275A (zh) * | 2020-09-21 | 2021-01-05 | 北京达佳互联信息技术有限公司 | 视频描述信息的生成方法、装置及服务器 |
CN112231497A (zh) * | 2020-10-19 | 2021-01-15 | 腾讯科技(深圳)有限公司 | 信息分类方法、装置、存储介质及电子设备 |
CN113159091A (zh) * | 2021-01-20 | 2021-07-23 | 北京百度网讯科技有限公司 | 数据处理方法、装置、电子设备及存储介质 |
CN113674188A (zh) * | 2021-08-04 | 2021-11-19 | 深圳中兴网信科技有限公司 | 视频分析方法、装置、电子设备和可读存储介质 |
CN114036341A (zh) * | 2022-01-10 | 2022-02-11 | 腾讯科技(深圳)有限公司 | 音乐标签的预测方法、相关设备 |
CN114157876A (zh) * | 2020-09-07 | 2022-03-08 | 北京达佳互联信息技术有限公司 | 直播分类方法、装置、服务器和存储介质 |
CN114329068A (zh) * | 2021-08-11 | 2022-04-12 | 腾讯科技(深圳)有限公司 | 一种数据处理方法及装置、电子设备、存储介质 |
CN115022108A (zh) * | 2022-06-16 | 2022-09-06 | 深圳市欢太科技有限公司 | 会议接入方法、装置、存储介质及电子设备 |
CN116701303A (zh) * | 2023-07-06 | 2023-09-05 | 浙江档科信息技术有限公司 | 基于深度学习的电子文件分类方法、***及可读存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110081082A1 (en) * | 2009-10-07 | 2011-04-07 | Wei Jiang | Video concept classification using audio-visual atoms |
US8924993B1 (en) * | 2010-11-11 | 2014-12-30 | Google Inc. | Video content analysis for automatic demographics recognition of users and videos |
WO2017166512A1 (zh) * | 2016-03-31 | 2017-10-05 | 乐视控股(北京)有限公司 | 视频分类模型的训练方法和视频分类方法 |
CN108932451A (zh) * | 2017-05-22 | 2018-12-04 | 北京金山云网络技术有限公司 | 音视频内容分析方法及装置 |
CN109241829A (zh) * | 2018-07-25 | 2019-01-18 | 中国科学院自动化研究所 | 基于时空注意卷积神经网络的行为识别方法及装置 |
CN109257622A (zh) * | 2018-11-01 | 2019-01-22 | 广州市百果园信息技术有限公司 | 一种音视频处理方法、装置、设备及介质 |
CN110162669A (zh) * | 2019-04-04 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 视频分类处理方法、装置、计算机设备及存储介质 |
US20190303499A1 (en) * | 2018-03-28 | 2019-10-03 | Cbs Interactive Inc. | Systems and methods for determining video content relevance |
CN110879974A (zh) * | 2019-11-01 | 2020-03-13 | 北京微播易科技股份有限公司 | 一种视频分类方法和装置 |
-
2020
- 2020-03-26 CN CN202010224680.0A patent/CN111488489B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110081082A1 (en) * | 2009-10-07 | 2011-04-07 | Wei Jiang | Video concept classification using audio-visual atoms |
US8924993B1 (en) * | 2010-11-11 | 2014-12-30 | Google Inc. | Video content analysis for automatic demographics recognition of users and videos |
WO2017166512A1 (zh) * | 2016-03-31 | 2017-10-05 | 乐视控股(北京)有限公司 | 视频分类模型的训练方法和视频分类方法 |
CN108932451A (zh) * | 2017-05-22 | 2018-12-04 | 北京金山云网络技术有限公司 | 音视频内容分析方法及装置 |
US20190303499A1 (en) * | 2018-03-28 | 2019-10-03 | Cbs Interactive Inc. | Systems and methods for determining video content relevance |
CN109241829A (zh) * | 2018-07-25 | 2019-01-18 | 中国科学院自动化研究所 | 基于时空注意卷积神经网络的行为识别方法及装置 |
CN109257622A (zh) * | 2018-11-01 | 2019-01-22 | 广州市百果园信息技术有限公司 | 一种音视频处理方法、装置、设备及介质 |
CN110162669A (zh) * | 2019-04-04 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 视频分类处理方法、装置、计算机设备及存储介质 |
CN110879974A (zh) * | 2019-11-01 | 2020-03-13 | 北京微播易科技股份有限公司 | 一种视频分类方法和装置 |
Non-Patent Citations (1)
Title |
---|
何春辉;: "基于描述文本和实体标签的网络视频分类算法", 湖南城市学院学报(自然科学版), no. 03 * |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111931679A (zh) * | 2020-08-21 | 2020-11-13 | 腾讯科技(深圳)有限公司 | 动作识别方法、装置、设备及存储介质 |
CN114157876A (zh) * | 2020-09-07 | 2022-03-08 | 北京达佳互联信息技术有限公司 | 直播分类方法、装置、服务器和存储介质 |
CN111901668A (zh) * | 2020-09-07 | 2020-11-06 | 三星电子(中国)研发中心 | 视频播放方法和装置 |
CN112183275A (zh) * | 2020-09-21 | 2021-01-05 | 北京达佳互联信息技术有限公司 | 视频描述信息的生成方法、装置及服务器 |
CN112231497A (zh) * | 2020-10-19 | 2021-01-15 | 腾讯科技(深圳)有限公司 | 信息分类方法、装置、存储介质及电子设备 |
CN112231497B (zh) * | 2020-10-19 | 2024-04-09 | 腾讯科技(深圳)有限公司 | 信息分类方法、装置、存储介质及电子设备 |
US11822568B2 (en) | 2021-01-20 | 2023-11-21 | Beijing Baidu Netcom Science Technology Co., Ltd. | Data processing method, electronic equipment and storage medium |
CN113159091A (zh) * | 2021-01-20 | 2021-07-23 | 北京百度网讯科技有限公司 | 数据处理方法、装置、电子设备及存储介质 |
CN113674188A (zh) * | 2021-08-04 | 2021-11-19 | 深圳中兴网信科技有限公司 | 视频分析方法、装置、电子设备和可读存储介质 |
CN114329068A (zh) * | 2021-08-11 | 2022-04-12 | 腾讯科技(深圳)有限公司 | 一种数据处理方法及装置、电子设备、存储介质 |
CN114329068B (zh) * | 2021-08-11 | 2024-05-31 | 腾讯科技(深圳)有限公司 | 一种数据处理方法及装置、电子设备、存储介质 |
CN114036341A (zh) * | 2022-01-10 | 2022-02-11 | 腾讯科技(深圳)有限公司 | 音乐标签的预测方法、相关设备 |
CN114036341B (zh) * | 2022-01-10 | 2022-03-29 | 腾讯科技(深圳)有限公司 | 音乐标签的预测方法、相关设备 |
CN115022108A (zh) * | 2022-06-16 | 2022-09-06 | 深圳市欢太科技有限公司 | 会议接入方法、装置、存储介质及电子设备 |
CN116701303A (zh) * | 2023-07-06 | 2023-09-05 | 浙江档科信息技术有限公司 | 基于深度学习的电子文件分类方法、***及可读存储介质 |
CN116701303B (zh) * | 2023-07-06 | 2024-03-12 | 浙江档科信息技术有限公司 | 基于深度学习的电子文件分类方法、***及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111488489B (zh) | 2023-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111488489B (zh) | 视频文件的分类方法、装置、介质及电子设备 | |
CN110119757B (zh) | 模型训练方法、视频类别检测方法、装置、电子设备和计算机可读介质 | |
CN107945786B (zh) | 语音合成方法和装置 | |
CN111581437A (zh) | 一种视频检索方法及装置 | |
CN111382555B (zh) | 数据处理方法、介质、装置和计算设备 | |
CN109660865B (zh) | 为视频自动打视频标签的方法及装置、介质和电子设备 | |
CN112528637B (zh) | 文本处理模型训练方法、装置、计算机设备和存储介质 | |
WO2022188644A1 (zh) | 词权重的生成方法、装置、设备及介质 | |
CN109582825B (zh) | 用于生成信息的方法和装置 | |
CN111918094A (zh) | 视频处理方法、装置、电子设备和存储介质 | |
CN112348111B (zh) | 视频中的多模态特征融合方法、装置、电子设备及介质 | |
CN114895817B (zh) | 交互信息处理方法、网络模型的训练方法及装置 | |
CN113539240B (zh) | 动画生成方法、装置、电子设备和存储介质 | |
CN110880198A (zh) | 动画生成方法和装置 | |
CN115050077A (zh) | 情绪识别方法、装置、设备及存储介质 | |
CN111540364A (zh) | 音频识别方法、装置、电子设备及计算机可读介质 | |
CN116166827B (zh) | 语义标签抽取模型的训练和语义标签的抽取方法及其装置 | |
CN116564338B (zh) | 语音动画生成方法、装置、电子设备和介质 | |
CN111653270B (zh) | 语音处理方法、装置、计算机可读存储介质及电子设备 | |
WO2023197749A9 (zh) | 背景音乐的***时间点确定方法、装置、设备和存储介质 | |
CN113205793A (zh) | 音频生成方法、装置、存储介质及电子设备 | |
CN114363695B (zh) | 视频处理方法、装置、计算机设备和存储介质 | |
CN115129934A (zh) | 一种多模态视频理解方法 | |
CN113409803B (zh) | 语音信号处理方法、装置、存储介质及设备 | |
CN112633004A (zh) | 文本标点符号删除方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40027986 Country of ref document: HK |
|
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |