CN110347873A - 视频分类方法、装置、电子设备及存储介质 - Google Patents

视频分类方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN110347873A
CN110347873A CN201910562350.XA CN201910562350A CN110347873A CN 110347873 A CN110347873 A CN 110347873A CN 201910562350 A CN201910562350 A CN 201910562350A CN 110347873 A CN110347873 A CN 110347873A
Authority
CN
China
Prior art keywords
feature
network
video
trained
key frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910562350.XA
Other languages
English (en)
Other versions
CN110347873B (zh
Inventor
康健
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Oppo Mobile Telecommunications Corp Ltd
Original Assignee
Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Oppo Mobile Telecommunications Corp Ltd filed Critical Guangdong Oppo Mobile Telecommunications Corp Ltd
Priority to CN201910562350.XA priority Critical patent/CN110347873B/zh
Publication of CN110347873A publication Critical patent/CN110347873A/zh
Application granted granted Critical
Publication of CN110347873B publication Critical patent/CN110347873B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/75Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本公开提供了一种视频分类方法、装置、电子设备及计算机可读存储介质,涉及图像处理技术领域,所述视频分类方法包括:对待处理视频进行稀疏采样得到多个关键帧;通过预设模型中的特征提取网络对所述多个关键帧进行处理,以提取所述多个关键帧的特征;通过所述预设模型中训练好的注意力网络对所述多个关键帧的特征进行融合,并对融合后的特征进行处理得到所述待处理视频的分类结果。本公开能够减少计算量,提高视频分类速度和效率。

Description

视频分类方法、装置、电子设备及存储介质
技术领域
本公开涉及图像处理技术领域,具体而言,涉及一种视频分类方法、视频分类装置、电子设备以及计算机可读存储介质。
背景技术
随着视频技术的发展,用户可以从多种渠道获得各种各样的视频。由于视频的数量过于庞大,通过对视频进行分类处理,能够便于用户查找和使用需要的视频,提高用户体验。
相关技术中,视频分类方法可以包括基于长短期记忆网络的方法,基于3D卷积的方法以及基于双流网络的方法。
上述几种方式中,由于网络结构较大以及计算的参数量较大,因此处理速度较慢。另外,上述几种方式中,在处理帧间信息时,都会对单独帧进行全局操作,造成计算资源浪费;且由于不能利用帧间的信息,可能导致分类结果不准确。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种视频分类方法、装置、电子设备及计算机可读存储介质,进而至少在一定程度上克服由于相关技术的限制和缺陷而导致的视频分类速度较慢的问题。
本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
根据本公开的一个方面,提供一种视频分类方法,包括:对待处理视频进行稀疏采样得到多个关键帧;通过预设模型中的特征提取网络对所述多个关键帧进行处理,以提取所述多个关键帧的特征;通过所述预设模型中训练好的注意力网络对所述多个关键帧的特征进行融合,并对融合后的特征进行处理得到所述待处理视频的分类结果。
在本公开的一种示例性实施例中,所述特征提取网络包括残差网络,通过预设模型中的特征提取网络对所述多个关键帧进行处理,以提取所述多个关键帧的特征包括:将所述多个关键帧作为一个批,并将所述批输入所述残差网络中,以提取所述多个关键帧的所述特征。
在本公开的一种示例性实施例中,通过所述预设模型中训练好的注意力网络对所述多个关键帧的特征进行融合,并对融合后的特征进行处理得到所述待处理视频的分类结果包括:将所述多个关键帧的特征输入所述训练好的注意力网络,得到融合后的特征;根据所述融合后的特征确定所述待处理视频属于每个类别的概率,以根据所述概率确定所述分类结果。
在本公开的一种示例性实施例中,将所述多个关键帧的特征输入所述训练好的注意力网络,得到融合后的特征之前,所述方法还包括:将所述残差网络固定,并对所述注意力网络进行训练,以得到所述训练好的注意力网络。
在本公开的一种示例性实施例中,所述方法还包括:在得到所述训练好的注意力网络之后,对所述预设模型进行训练,得到训练好的预设模型。
在本公开的一种示例性实施例中,对所述预设模型进行训练,得到训练好的预设模型包括:对所述预设模型进行端到端的训练,以得到所述训练好的预设模型。
在本公开的一种示例性实施例中,所述方法还包括:基于回归损失对所述训练好的预设模型进行压缩;和/或对所述训练好的预设模型的参数类型进行调整。
根据本公开的一个方面,提供一种视频分类装置,包括:关键帧获取模块,用于对待处理视频进行稀疏采样得到多个关键帧;特征提取模块,用于通过预设模型中的特征提取网络对所述多个关键帧进行处理,以提取所述多个关键帧的特征;分类结果确定模块,用于通过所述预设模型中训练好的注意力网络对所述多个关键帧的特征进行融合,并对融合后的特征进行处理得到所述待处理视频的分类结果。
根据本公开的一个方面,提供一种电子设备,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一项所述的视频分类方法。
根据本公开的一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的视频分类方法。
本示例性实施例提供的视频分类方法、装置、电子设备及计算机可读存储介质中,通过提取待处理视频的关键帧的特征,并利用注意力网络对多个关键帧的特征进行融合,从而对待处理视频进行分类。一方面,通过预设模型中的特征提取网络提取待处理视频的多个关键帧的特征,减少了输入至特征提取网络的参数,并且由于特征提取网络的网络结构较小,减少了处理的参数的数量,避免了相关技术中提取待处理视频的所有帧的特征造成的时间浪费,提高了提取特征的速度,提高了处理效率。另一方面,利用注意力网络对多个关键帧的特征进行融合以得到待处理视频的分类结果,能够对多个关键帧的特征进行融合以统一处理不同帧之间的信息,避免了相关技术中会对每个单独的关键帧进行全局操作的步骤,减少了对计算资源的浪费,降低了资源消耗;并且能够有效利用帧间信息,因此能够对待处理视频进行准确分类,提高分类结果的精准度。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示意性示出本公开示例性实施例中视频分类方法的示意图。
图2示意性示出本公开示例性实施例预设模型的结构示意图。
图3示意性示出本公开示例性实施例中确定分类结果的流程图。
图4示意性示出本公开示例性实施例中对视频进行分类的整体流程图。
图5示意性示出本公开示例性实施例中视频分类装置的框图。
图6示意性示出本公开示例性实施例中的电子设备的示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本公开的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本公开的各方面变得模糊。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
本示例性实施例中,首先提供了一种视频分类方法,该视频分类方法可以应用于对照片、视频或者是图片进行分类的任何场景。接下来,参考图1所示,对本示例性实施例中的视频分类方法进行详细说明。
在步骤S110中,对待处理视频进行稀疏采样得到多个关键帧。
本示例性实施例中,待处理视频可以包括终端中某个文件夹存储的大量视频(例如智能终端相册中的视频),或者是某些信息交互平台中上传和存储的大量视频。待处理视频的具体类型可根据实际的操作功能需求而确定,例如在需要分类时,待处理视频指的是待分类的视频。
由于待处理视频的连续帧间存在的差异不大,因此本示例性实施例中不需要再将待处理视频的每一帧信息都作为后续处理过程的输入。为了选取待处理视频的部分帧进行处理,可对待处理视频进行采样。采样指的是将待处理视频做为样本量在时间域上进行间隔取样的过程。不同的采样率对应的采样结果稀疏程度不同,举例而言,给定一个待处理视频例如视频序列V,其时长为T,可将该视频序列平均分为T+1段,每一段包含相同数量的视频帧,然后从每一段中随机选取一帧作为采样的样本。如此一来,可从T+1段中得到该待处理视频的多个关键帧。本示例性实施例中,通过对待处理视频进行稀疏采样得到多个关键帧,能够在保证数据处于保真度范围内的条件下减少采样点数,也减少了输入特征提取网络的参数,从而降低了运算量。
继续参考图1中所示,在步骤S120中,通过预设模型中的特征提取网络对所述多个关键帧进行处理,以提取所述多个关键帧的特征。
本示例性实施例中,预设模型指的是用于对多个关键帧进行处理,得到待处理视频的分类结果的整个模型。预设模型主要可以包括两部分:其中第一部分为特征提取网络,第二部分为注意力网络。多个关键帧的特征具体可以用特征向量来表示。
首先对特征提取网络进行说明。特征提取网络主要用于提取输入该特征提取网络的每一个待处理视频的多个关键帧的特征。特征提取网络可以包括任意一种可以提取特征的网络模型,例如合适的机器学习模型,机器学习模型可以包括但不限于卷积神经网络、循环神经网络以及残差网络模型等等。若特征提取网络为卷积神经网络,由于卷积神经网络可以包括多个卷积层和池化层,每个卷积层用于分别提取不同的特征,池化层用于降低维度以提取主要特征,从而将主要特征作为最终的特征执行后续处理。
本示例性实施例中,提取特征网络使用的基于PC端的网络主体,但是使用基于移动端的网络如MobileNet、ThunderNet进行特征提取工作也在本申请的保护范围之内。
本示例性实施例中,若特征提取网络为残差网络,则通过特征提取网络对所述多个关键帧进行处理,以提取所述多个关键帧的特征的具体过程包括:将所述多个关键帧作为一个批,并将所述批输入所述残差网络中,以提取所述多个关键帧的所述特征。其中,残差网络可以为18层的残差网络、34层的残差网络等多种残差网络中的任意一个,此处以18层的残差网络ResNet18为例进行说明。
残差网络是由残差块(输出与输入的差别)构成的,且残差网络使用全等映射直接将前一层输出传到后一层。假设某段神经网络的输入为x,期望输出的是H(x)。在残差网络中,可直接将输入x传到输出作为结果,则需要学习的目标是残差H(x)-x,而不是完整的输出。
构建一个ResNet网络就是通过将很多这样的残差块堆积在一起,将一个普通的卷积经网络变为残差网络的方法是加上所有跳跃连接,每两层增加一个捷径,构成一个残差块。例如,5个残差块连接在一起构成一个残差网络。残差网络中顺次相连的各个残差块中任意一个残差块中均包括一个恒等映射和至少两个卷积层,任意一个残差块的恒等映射由所述任意一个残差块的输入端指向所述任意一个残差块的输出端。残差网络的具体网络结构、层数等可以根据计算资源消耗、识别性能等需要进行设置,在此不作特殊限定。需要说明的是,本步骤中所使用的编码部分的残差网络ResNet18是预先训练好的模型,因此本示例性实施例中不需要对其进行训练优化。
本示例性实施例中,在步骤S110中获取到多个待处理视频的多个关键帧之后,可将这多个关键帧作为一个批Batch。Batch大小是一个超参数,用于定义在更新内部模型参数之前要处理的样本数量。将批处理视为循环迭代一个或多个样本并进行预测。在批处理结束时,将预测与预期输出变量进行比较,并计算误差。从该错误中,更新算法用于改进模型,例如沿误差梯度向下移动。当所有样本用于创建一个Batch时,学习算法称为批量梯度下降。由于所有的关键帧组成一个批,因此可以减少对网络的更新频率和更新次数。
具体地,将多个关键帧作为一个批输入残差网络的第一个残差块;对于任意一个残差块,接收上一个残差块的输出,并基于第一卷积层、第二卷积层以及第三卷积层,对上一个残差块的输出进行特征提取;获取第三卷积层的输出,将第三卷积层的输出以及上一个残差块的输出传递到下一个残差块;获取残差网络的最后一个残差块的输出,得到多个关键帧的特征。
本示例性实施例中,由于将18层的残差网络作为进行特征提取的网络,该网络具备有较强的对图像进行特征提取的能力,同时网络层数较少进而减少了网络参数。解决了因网络层数过深导致的梯度弥散问题,能够以较深的网络结构进行特征提取,确保了特征提取的准确度,并且减少了计算量。
步骤S110和步骤S120中的方法,通过对待处理视频进行稀疏采样得到多个关键帧,不再将待处理视频的每一帧信息都作为下一步的输入,从而减少了输入的参数。并且,残差网络具有对图像提取特征的能力,且网络层数较少,进一步减少了参数的数量。如此一来,通过稀疏采样和层数较少的特征提取网络提取关键帧的特征,减少了需要传输和计算的参数的数量,节省了计算资源。
继续参考图1中所示,在步骤S130中,通过所述预设模型中训练好的注意力网络对所述多个关键帧的特征进行融合,并对融合后的特征进行处理得到所述待处理视频的分类结果。
本示例性实施例中,预设模型指的是训练好的预设模型。图2中示意性示出了预设模型的具体结构图,参考图2中所示,预设模型除了特征提取网络和注意力网络之外,还可以包括一个BN层、一个全连接层和一个 softmax,从而根据softmax输出的向量得到多分类标签的结果。其中,特征提取网络为去掉softmax的ResNet18,该网络输入一个batch的帧,输出多个关键帧的特征向量;注意力网络与特征提取网络连接,且注意力网络的输入为多个关键帧的特征向量,注意力网络的输出为融合后的向量;BN层与注意力网络连接,其用于对每个神经元进行归一化处理,以加快训练速度,提高模型精度;全连接层(fullyconnected layers,FC)与 BN层连接,其在整个卷积神经网络中起到分类器的作用;softmax与全连接层连接,最后输出预测向量,预测向量的每一个维度代表对应类别的概率。
由于卷积神经网络不具备融合帧间信息的能力,因此,对于提取出来的关键帧的特征,可使用注意力网络对多个不同的关键帧之间的特征进行融合,以得到针对待处理视频的分类结果。该注意力网络可以为帧间注意力网络,其输入可以为步骤S120中得到的多个关键帧组成的Batch 的特征,其输出为融合后的向量。
图3中示意性示出了确定分类结果的流程图,参考图3中所示,主要包括步骤S310和步骤S320,其中:
在步骤S310中,将所述多个关键帧的特征输入所述训练好的注意力网络,得到融合后的特征。
本步骤中,注意力网络指的是基于注意力机制的网络,注意力机制可以让一个神经网络能够只关注其输入的一部分信息,它能够选择特定的输入。注意力机制可以被应用到任意类型的输入,不管其形状如何,对于矩阵形式的输入,例如图像或者是向量等等。
为了保证融合后的特征的准确性,可在计算融合后的特征之前,先对注意力网络进行训练,从而通过训练好的注意力网络对待处理视频的多个关键帧的特征进行融合处理。对注意力网络进行训练的具体过程可以包括:将所述残差网络固定,并对所述注意力网络进行训练,以得到所述训练好的注意力网络。也就是说,整个模型的训练过程,由于前面使用的编码部分的ResNet18网络是预先训练好的模型,所以在训练过程中,先固定住这一部分参数,只对后面的注意力网络进行训练,待注意力网络的损失函数趋于稳定后,停止对注意力网络的训练过程,从而得到训练好的注意力网络。具体而言,本示例性实施例中的注意力网络可以如公式(1)所示:
其中,a代表输入注意力网络的向量,即多个关键帧的特征向量;c 为计算出的多个关键帧的特征的融合向量。输入注意力网络的向量a的参数计算方式如公式(2)和公式(3)所示:
ei=wTai 公式(2)
其中,w是在训练过程中学习到的参数,通过学习到的参数,可以利用训练好的注意力网络计算出多个关键帧的特征的融合后的向量c。
在对注意力网络进行训练时,首先,可以获取多个关键帧的图像数据,并人工确定出这个待处理视频所属的类别;随后,采用类别以及图像数据对该注意力网络进行训练,以不断调整注意力网络中各卷积核的权重,直至得到类别与人工设定的类别为止,从而得到训练好的注意力网络。
通过注意力网络进行融合的具体步骤可以包括:将整个卷积层信息作为输入来获取第一次要集中的点,从而表示对不同位置的注意。获取注意力向量之后,会将上一部分的注意力向量与卷积层的向量做乘积,乘积得到的向量表示要注意的点的位置信息。将位置信息和时序信息结合传入网络后,当前时序下,计算得到新的位置向量以及输出的预测概率信息。不断将输出与卷积层相结合来生成新的位置点信息,从而获取新的注意力,使用新注意力结合输入获取新的输出信息。本示例性实施例中,由去掉 softmax的ResNet18作为提取特征的网络,该网络输入由多个关键帧组成的批batch,输出一系列多个关键帧对应的多个特征向量,之后连接帧间注意力网络,得到多个特征向量对应的融合向量。
基于此,可通过注意力网络有效利用帧间信息,避免了相关技术中会对每个单独的关键帧进行全局操作的步骤,减少了对计算资源的浪费,降低了资源消耗。通过融合后的向量,能够更准确地表示待处理视频的特征,从而能够更精准地进行分类。另外,由于注意力网络能够有效利用帧间信息,因此可基于帧间信息对待处理视频进行精准分类。
在得到所述训练好的注意力网络之后,可以对整个预设模型进行训练,得到训练好的预设模型。例如,对特征提取网络以及注意力网络进行微调,直至某个待处理视频的类别与人工设定的类别一致为止,以得到性能较好的训练好的预设模型,从而通过预设模型提高视频分类的精准度。在对预设模型进行训练时,可实现端到端的训练。端到端的训练可以包括:从输入端到输出端会得到一个预测结果,与真实结果相比较会得到一个误差,这个误差会在模型中的每一层传递(反向传播),每一层的表示都会根据这个误差来做调整,直到模型收敛或达到预期的效果才结束。端到端的训练其实就是不做其他额外处理,从原始数据输入到任务结果输出,整个训练和预测过程,都是在模型里完成的。例如,整个模型中不再有单独的模型,而是从输入端到输出端直接用一个神经网络相连,让这个神经网络来承担原先所有模块的功能。通过端到端的训练,减少了操作步骤,提高了训练效率。
需要补充的是,为了进一步优化性能,可以对整个训练好的预设模型再进行调整,具体包括以下几个调整方式:第一种、基于回归损失对所述训练好的预设模型进行压缩,即可以对预设模型中的每一层进行模型剪枝处理。由于神经网络的参数众多,但其中有些参数对最终的输出结果贡献不大而显得冗余,因此需要将这些冗余的参数剪掉。模型剪枝方法可以为根据权重值进行剪枝的方法等等。本示例性实施例中,可基于LASSO回归损失来调整预设模型的通道数量,从而去除回归损失较小的对分类结果影响不大的通道,以减少计算量。通过对训练好的预设模型进行剪枝处理,能够提升运行速度,并且减小模型文件大小。
第二种、对所述训练好的预设模型的参数类型进行调整。具体地,预设模型中的参数类型一般为float32,在本示例性实施例中,可将参数类型由float32截断为float16,从而在不影响计算效果的情况下,减少模型体量,并且减少对计算资源的消耗。
需要说明的是,本示例性实施例中,可以只进行模型压缩,也可以只进行参数类型调整,还可以同时进行模型压缩和参数类型调整,以提升运行速度,减少计算资源的消耗。
接下来,在步骤S320中,根据所述融合后的特征确定所述待处理视频属于每个类别的概率,以根据所述概率确定所述分类结果。
本步骤中,分类结果可以用待处理视频属于每个类别的概率来表示,具体可以事先设置一个概率阈值;在概率值大于或者等于该概率阈值时,可确定待处理视频属于该类别。
在得到融合后的特征之后,可将该融合后的特征输入BN层进行归一化处理,进而输入全连接层进行分类,进一步输入softmax层得到预测向量,从而根据预测向量的每一个维度得到待处理视频属于某个类别的概率,以根据概率值确定其分类结果。
举例而言,概率阈值可以为0.7,当待处理视频1属于类别1的概率为0.9,属于类别2的概率为0.1时,可确定待处理视频1的分类结果为类别1。
本示例性实施例中,通过残差网络和注意力网络组成的预设模型对待处理视频进行分类,相对于相关技术而言,减少了参数,耗时较少,同时不会损失太多精度。同时注意力网络有效利用了多个不同关键帧之间的信息,且节省了计算资源。
图4中示意性示出了视频分类的整体流程图,参考图4中所示,主要包括以下步骤:
在步骤S401中,对待处理视频进行切帧处理,具体可采用稀疏采样提取待处理视频的多个关键帧。
在步骤S402中,将多个关键帧输入基础的特征提取网络,此处的特征提取网络可以为残差网络ResNet18,以得到用于表示特征的向量。
在步骤S403中,得到每个关键帧对应的用于表示高维特征的向量。
在步骤S404中,将高维特征输入注意力网络,得到融合后的向量。
在步骤S405中,根据融合后的向量得到分类结果。具体地,将融合后的向量输入BN层、全连接层和softmax层,以得到待处理视频属于每个类别的概率,进而根据概率确定分类结果。
综上所述,本示例性实施例中的技术方案,先对待处理视频进行稀疏采样,得到关键帧并通过残差网络进行特征提取。对于提取出来的特征,使用注意力网络进行进一步的特征融合,得到不同关键帧之间的融合特征,最终输出预测结果。通过这种方法,减少了输入至特征提取网络的参数,并且由于特征提取网络的网络结构较小,减少了处理的参数的数量,避免了相关技术中提取待处理视频的所有帧的特征造成的时间浪费,提高了提取特征的效率和速度。另外,能够对多个关键帧的特征进行融合,避免了相关技术中会对每个单独的关键帧进行全局操作的步骤,减少了对计算资源的浪费,降低了资源消耗。除此之外,进一步使用模型剪枝方法进行处理,能够压缩模型参数量并提升速度。
本示例性实施例中,还提供了一种视频分类装置,参考图5所示,该装置500可以包括:
关键帧获取模块501,用于对待处理视频进行稀疏采样得到多个关键帧;
特征提取模块502,用于通过预设模型中的特征提取网络对所述多个关键帧进行处理,以提取所述多个关键帧的特征;
分类结果确定模块503,用于通过所述预设模型中训练好的注意力网络对所述多个关键帧的特征进行融合,并对融合后的特征进行处理得到所述待处理视频的分类结果。
在本公开的一种示例性实施例中,所述特征提取网络包括残差网络,特征提取模块被配置为:将所述多个关键帧作为一个批,并将所述批输入所述残差网络中,以提取所述多个关键帧的所述特征。
在本公开的一种示例性实施例中,分类结果确定模块包括:特征融合模块,用于将所述多个关键帧的特征输入所述训练好的注意力网络,得到融合后的特征;概率计算模块,用于根据所述融合后的特征确定所述待处理视频属于每个类别的概率,以根据所述概率确定所述分类结果。
在本公开的一种示例性实施例中,将所述多个关键帧的特征输入所述训练好的注意力网络,得到融合后的特征之前,所述装置还包括:网络训练模块,用于将所述残差网络固定,并对所述注意力网络进行训练,以得到所述训练好的注意力网络。
在本公开的一种示例性实施例中,所述装置还包括:预设模型训练模块,用于在得到所述训练好的注意力网络之后,对所述预设模型进行训练,得到训练好的预设模型。
在本公开的一种示例性实施例中,预设模型训练模块包括:训练控制模块,用于对所述预设模型进行端到端的训练,以得到所述训练好的预设模型。
在本公开的一种示例性实施例中,所述装置还包括:模型压缩模块,用于基于回归损失对所述训练好的预设模型进行压缩;和/或参数调整模块,用于对所述训练好的预设模型的参数类型进行调整。
需要说明的是,上述视频分类装置中各模块的具体细节已经在对应的方法中进行了详细阐述,因此此处不再赘述。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
在本公开的示例性实施例中,还提供了一种能够实现上述方法的电子设备。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为***、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“***”。
下面参照图6来描述根据本发明的这种实施方式的电子设备600。图 6显示的电子设备600仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图6所示,电子设备600以通用计算设备的形式表现。电子设备600 的组件可以包括但不限于:上述至少一个处理单元610、上述至少一个存储单元620、连接不同***组件(包括存储单元620和处理单元610)的总线630。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元610执行,使得所述处理单元610执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。例如,所述处理单元 610可以执行如图1中所示的步骤。
存储单元620可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)6201和/或高速缓存存储单元6202,还可以进一步包括只读存储单元(ROM)6203。
存储单元620还可以包括具有一组(至少一个)程序模块6205的程序/实用工具6204,这样的程序模块6205包括但不限于:操作***、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线630可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、***总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
显示单元640可以为具有显示功能的显示器,以通过该显示器展示由处理单元610执行本示例性实施例中的方法而得到的处理结果。显示器包括但不限于液晶显示器或者是其它显示器。
电子设备600也可以与一个或多个外部设备700(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备600 交互的设备通信,和/或与使得该电子设备600能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口650进行。并且,电子设备600还可以通过网络适配器660与一个或者多个网络(例如局域网(LAN),广域网 (WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器660 通过总线630与电子设备600的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备600使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID***、磁带驱动器以及数据备份存储***等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是 CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。
根据本发明的实施方式的用于实现上述方法的程序产品,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行***、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的***、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行***、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如 Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
此外,上述附图仅是根据本发明示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限。

Claims (10)

1.一种视频分类方法,其特征在于,包括:
对待处理视频进行稀疏采样得到多个关键帧;
通过预设模型中的特征提取网络对所述多个关键帧进行处理,以提取所述多个关键帧的特征;
通过所述预设模型中训练好的注意力网络对所述多个关键帧的特征进行融合,并对融合后的特征进行处理得到所述待处理视频的分类结果。
2.根据权利要求1所述的视频分类方法,其特征在于,所述特征提取网络包括残差网络,通过预设模型中的特征提取网络对所述多个关键帧进行处理,以提取所述多个关键帧的特征包括:
将所述多个关键帧作为一个批,并将所述批输入所述残差网络中,以提取所述多个关键帧的所述特征。
3.根据权利要求1所述的视频分类方法,其特征在于,通过所述预设模型中训练好的注意力网络对所述多个关键帧的特征进行融合,并对融合后的特征进行处理得到所述待处理视频的分类结果包括:
将所述多个关键帧的特征输入所述训练好的注意力网络,得到融合后的特征;
根据所述融合后的特征确定所述待处理视频属于每个类别的概率,以根据所述概率确定所述分类结果。
4.根据权利要求1所述的视频分类方法,其特征在于,将所述多个关键帧的特征输入所述训练好的注意力网络,得到融合后的特征之前,所述方法还包括:
将所述残差网络固定,并对所述注意力网络进行训练,以得到所述训练好的注意力网络。
5.根据权利要求1所述的视频分类方法,其特征在于,所述方法还包括:
在得到所述训练好的注意力网络之后,对所述预设模型进行训练,得到训练好的预设模型。
6.根据权利要求5所述的视频分类方法,其特征在于,对所述预设模型进行训练,得到训练好的预设模型包括:
对所述预设模型进行端到端的训练,以得到所述训练好的预设模型。
7.根据权利要求5所述的视频分类方法,其特征在于,所述方法还包括:
基于回归损失对所述训练好的预设模型进行压缩;和/或
对所述训练好的预设模型的参数类型进行调整。
8.一种视频分类装置,其特征在于,包括:
关键帧获取模块,用于对待处理视频进行稀疏采样得到多个关键帧;
特征提取模块,用于通过预设模型中的特征提取网络对所述多个关键帧进行处理,以提取所述多个关键帧的特征;
分类结果确定模块,用于通过所述预设模型中训练好的注意力网络对所述多个关键帧的特征进行融合,并对融合后的特征进行处理得到所述待处理视频的分类结果。
9.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1-7任意一项所述的视频分类方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-7任意一项所述的视频分类方法。
CN201910562350.XA 2019-06-26 2019-06-26 视频分类方法、装置、电子设备及存储介质 Active CN110347873B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910562350.XA CN110347873B (zh) 2019-06-26 2019-06-26 视频分类方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910562350.XA CN110347873B (zh) 2019-06-26 2019-06-26 视频分类方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN110347873A true CN110347873A (zh) 2019-10-18
CN110347873B CN110347873B (zh) 2023-04-07

Family

ID=68183260

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910562350.XA Active CN110347873B (zh) 2019-06-26 2019-06-26 视频分类方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN110347873B (zh)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111026915A (zh) * 2019-11-25 2020-04-17 Oppo广东移动通信有限公司 视频分类方法、视频分类装置、存储介质与电子设备
CN111160191A (zh) * 2019-12-23 2020-05-15 腾讯科技(深圳)有限公司 一种视频关键帧提取方法、装置及存储介质
CN111177460A (zh) * 2019-12-20 2020-05-19 腾讯科技(深圳)有限公司 提取关键帧的方法及装置
CN111246124A (zh) * 2020-03-09 2020-06-05 三亚至途科技有限公司 一种多媒体数字融合方法和装置
CN111553169A (zh) * 2020-06-25 2020-08-18 北京百度网讯科技有限公司 语义理解模型的剪枝方法、装置、电子设备和存储介质
CN111611435A (zh) * 2020-04-01 2020-09-01 中国科学院深圳先进技术研究院 一种视频分类的方法、装置及存储介质
CN111626251A (zh) * 2020-06-02 2020-09-04 Oppo广东移动通信有限公司 一种视频分类方法、视频分类装置及电子设备
CN111680624A (zh) * 2020-06-08 2020-09-18 上海眼控科技股份有限公司 行为检测方法、电子设备和存储介质
CN111737520A (zh) * 2020-06-22 2020-10-02 Oppo广东移动通信有限公司 一种视频分类方法、视频分类装置、电子设备及存储介质
CN112000842A (zh) * 2020-08-31 2020-11-27 北京字节跳动网络技术有限公司 视频处理方法和装置
CN112232164A (zh) * 2020-10-10 2021-01-15 腾讯科技(深圳)有限公司 一种视频分类方法和装置
CN112613308A (zh) * 2020-12-17 2021-04-06 中国平安人寿保险股份有限公司 用户意图识别方法、装置、终端设备及存储介质
CN112863650A (zh) * 2021-01-06 2021-05-28 中国人民解放军陆军军医大学第二附属医院 一种基于卷积与长短期记忆神经网络的心肌病识别***
CN113065533A (zh) * 2021-06-01 2021-07-02 北京达佳互联信息技术有限公司 一种特征提取模型生成方法、装置、电子设备和存储介质
CN113191401A (zh) * 2021-04-14 2021-07-30 中国海洋大学 基于视觉显著性共享的用于三维模型识别的方法及装置
CN115311584A (zh) * 2022-08-15 2022-11-08 贵州电网有限责任公司 一种基于深度学习的无人机高压电网视频巡检飘挂物方法
CN115376052A (zh) * 2022-10-26 2022-11-22 山东百盟信息技术有限公司 一种基于关键帧采样和多尺度稠密网络的长视频分类方法
CN116824641A (zh) * 2023-08-29 2023-09-29 卡奥斯工业智能研究院(青岛)有限公司 姿态分类方法、装置、设备和计算机存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109359592A (zh) * 2018-10-16 2019-02-19 北京达佳互联信息技术有限公司 视频帧的处理方法、装置、电子设备及存储介质
US20190163981A1 (en) * 2017-11-28 2019-05-30 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for extracting video preview, device and computer storage medium
CN109862391A (zh) * 2019-03-18 2019-06-07 网易(杭州)网络有限公司 视频分类方法、介质、装置和计算设备

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190163981A1 (en) * 2017-11-28 2019-05-30 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for extracting video preview, device and computer storage medium
CN109359592A (zh) * 2018-10-16 2019-02-19 北京达佳互联信息技术有限公司 视频帧的处理方法、装置、电子设备及存储介质
CN109862391A (zh) * 2019-03-18 2019-06-07 网易(杭州)网络有限公司 视频分类方法、介质、装置和计算设备

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
吴昌等: "一种新的基于RVM的视频关键帧语义提取算法", 《计算机应用研究》 *

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111026915A (zh) * 2019-11-25 2020-04-17 Oppo广东移动通信有限公司 视频分类方法、视频分类装置、存储介质与电子设备
CN111026915B (zh) * 2019-11-25 2023-09-15 Oppo广东移动通信有限公司 视频分类方法、视频分类装置、存储介质与电子设备
CN111177460A (zh) * 2019-12-20 2020-05-19 腾讯科技(深圳)有限公司 提取关键帧的方法及装置
CN111160191A (zh) * 2019-12-23 2020-05-15 腾讯科技(深圳)有限公司 一种视频关键帧提取方法、装置及存储介质
CN111160191B (zh) * 2019-12-23 2024-05-14 腾讯科技(深圳)有限公司 一种视频关键帧提取方法、装置及存储介质
CN111246124A (zh) * 2020-03-09 2020-06-05 三亚至途科技有限公司 一种多媒体数字融合方法和装置
CN111611435A (zh) * 2020-04-01 2020-09-01 中国科学院深圳先进技术研究院 一种视频分类的方法、装置及存储介质
CN111626251A (zh) * 2020-06-02 2020-09-04 Oppo广东移动通信有限公司 一种视频分类方法、视频分类装置及电子设备
CN111680624A (zh) * 2020-06-08 2020-09-18 上海眼控科技股份有限公司 行为检测方法、电子设备和存储介质
CN111737520B (zh) * 2020-06-22 2023-07-25 Oppo广东移动通信有限公司 一种视频分类方法、视频分类装置、电子设备及存储介质
CN111737520A (zh) * 2020-06-22 2020-10-02 Oppo广东移动通信有限公司 一种视频分类方法、视频分类装置、电子设备及存储介质
CN111553169B (zh) * 2020-06-25 2023-08-25 北京百度网讯科技有限公司 语义理解模型的剪枝方法、装置、电子设备和存储介质
CN111553169A (zh) * 2020-06-25 2020-08-18 北京百度网讯科技有限公司 语义理解模型的剪枝方法、装置、电子设备和存储介质
CN112000842A (zh) * 2020-08-31 2020-11-27 北京字节跳动网络技术有限公司 视频处理方法和装置
CN112232164A (zh) * 2020-10-10 2021-01-15 腾讯科技(深圳)有限公司 一种视频分类方法和装置
CN112613308A (zh) * 2020-12-17 2021-04-06 中国平安人寿保险股份有限公司 用户意图识别方法、装置、终端设备及存储介质
CN112613308B (zh) * 2020-12-17 2023-07-25 中国平安人寿保险股份有限公司 用户意图识别方法、装置、终端设备及存储介质
CN112863650A (zh) * 2021-01-06 2021-05-28 中国人民解放军陆军军医大学第二附属医院 一种基于卷积与长短期记忆神经网络的心肌病识别***
CN113191401A (zh) * 2021-04-14 2021-07-30 中国海洋大学 基于视觉显著性共享的用于三维模型识别的方法及装置
CN113065533A (zh) * 2021-06-01 2021-07-02 北京达佳互联信息技术有限公司 一种特征提取模型生成方法、装置、电子设备和存储介质
CN115311584A (zh) * 2022-08-15 2022-11-08 贵州电网有限责任公司 一种基于深度学习的无人机高压电网视频巡检飘挂物方法
CN115376052A (zh) * 2022-10-26 2022-11-22 山东百盟信息技术有限公司 一种基于关键帧采样和多尺度稠密网络的长视频分类方法
CN116824641A (zh) * 2023-08-29 2023-09-29 卡奥斯工业智能研究院(青岛)有限公司 姿态分类方法、装置、设备和计算机存储介质
CN116824641B (zh) * 2023-08-29 2024-01-09 卡奥斯工业智能研究院(青岛)有限公司 姿态分类方法、装置、设备和计算机存储介质

Also Published As

Publication number Publication date
CN110347873B (zh) 2023-04-07

Similar Documents

Publication Publication Date Title
CN110347873A (zh) 视频分类方法、装置、电子设备及存储介质
CN112487182B (zh) 文本处理模型的训练方法、文本处理方法及装置
CN108959396B (zh) 机器阅读模型训练方法及装置、问答方法及装置
CN107423376B (zh) 一种有监督深度哈希快速图片检索方法及***
JP2022058915A (ja) 画像認識モデルをトレーニングするための方法および装置、画像を認識するための方法および装置、電子機器、記憶媒体、並びにコンピュータプログラム
CN109783655A (zh) 一种跨模态检索方法、装置、计算机设备和存储介质
CN110599492A (zh) 图像分割模型的训练方法、装置、电子设备及存储介质
CN110569359B (zh) 识别模型的训练及应用方法、装置、计算设备及存储介质
CN108665055B (zh) 一种图说生成方法及装置
US11423307B2 (en) Taxonomy construction via graph-based cross-domain knowledge transfer
CN113344206A (zh) 融合通道与关系特征学习的知识蒸馏方法、装置及设备
CN114743196B (zh) 文本识别的方法及装置、神经网络的训练方法
US20220374678A1 (en) Method for determining pre-training model, electronic device and storage medium
CN111178036B (zh) 一种知识蒸馏的文本相似度匹配模型压缩方法及***
CN109697724A (zh) 视频图像分割方法及装置、存储介质、电子设备
US20230009547A1 (en) Method and apparatus for detecting object based on video, electronic device and storage medium
CN113723378B (zh) 一种模型训练的方法、装置、计算机设备和存储介质
CN116152833B (zh) 基于图像的表格还原模型的训练方法及表格还原方法
CN114715145B (zh) 一种轨迹预测方法、装置、设备及自动驾驶车辆
CN115455171A (zh) 文本视频的互检索以及模型训练方法、装置、设备及介质
CN112560499A (zh) 语义表示模型的预训练方法、装置、电子设备及存储介质
CN110019952B (zh) 视频描述方法、***及装置
CN113360683A (zh) 训练跨模态检索模型的方法以及跨模态检索方法和装置
CN110728359B (zh) 搜索模型结构的方法、装置、设备和存储介质
JP7390442B2 (ja) 文書処理モデルのトレーニング方法、装置、機器、記憶媒体及びプログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant