CN117115715A - 一种基于流重构和帧预测结合的视频异常检测方法 - Google Patents

一种基于流重构和帧预测结合的视频异常检测方法 Download PDF

Info

Publication number
CN117115715A
CN117115715A CN202311142354.5A CN202311142354A CN117115715A CN 117115715 A CN117115715 A CN 117115715A CN 202311142354 A CN202311142354 A CN 202311142354A CN 117115715 A CN117115715 A CN 117115715A
Authority
CN
China
Prior art keywords
reconstruction
frame
video
anomaly detection
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311142354.5A
Other languages
English (en)
Inventor
王金卓
王晓宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui University
Original Assignee
Anhui University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui University filed Critical Anhui University
Priority to CN202311142354.5A priority Critical patent/CN117115715A/zh
Publication of CN117115715A publication Critical patent/CN117115715A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/62Extraction of image or video features relating to a temporal dimension, e.g. time-based feature extraction; Pattern tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种基于流重构和帧预测结合的视频异常检测方法,包括以下步骤:获取训练样本、帧数据处理、重构网络模型训练、预测网络训练以及使用训练好的模型进行测试并判断当前帧图像是否为异常帧;本发明基于流重构和帧预测结合的视频异常检测方法,分别使用基于TransUNet改进的多级记忆网络和条件变分自编码器训练,首先,捕获了视频帧和光流之间的高度相关性,其次,重构的正常流通常具有较高的质量,预测模块能够以较小的预测误差成功预测未来框架,最后,重构误差扩大了预测误差,使异常更容易被发现,从而能获得准确性和鲁棒性较高的异常检测结果。

Description

一种基于流重构和帧预测结合的视频异常检测方法
技术领域
本发明涉及视频异常检测技术领域,尤其涉及一种基于流重构和帧预测结合的视频异常检测方法。
背景技术
随着视频的不断普及,自动识别视频中的异常事件变得越来越有重要,智能的视频异常检测可以在一定程度上节省人力资源,提高效率,视频异常检测是一种计算机视觉技术,旨在从视频流中自动识别和检测出异常行为或事件,在视频异常检测任务中,***会分析输入视频数据,并尝试找出与正常行为或场景不一致的部分,这些部分通常被称为异常,这些异常可能是不寻常的行为、突发事件、异常对象或不正常的活动。
视频异常检测在许多实际场景中具有广泛的应用,如监控***、安防、交通管理、智能制造等领域,通过自动检测和警示异常事件,视频异常检测技术可以帮助提高监控效率、减少人力资源的浪费,并增强对潜在风险的预警能力。
视频异常检测的实现涉及多种技术,包括特征提取、异常定义和标注、异常检测算法等,特征提取用于将视频数据转换为可用于分析的有意义的特征表示,异常定义和标注是确定何为异常行为,并准备用于模型训练的标记数据,异常检测算法根据提取的特征和标记数据来识别视频中的异常行为。
目前,视频异常检测是一个具有挑战性的任务,因为异常事件通常是低频事件,并且正常行为的模式可能在不同场景中变化,导致异常行为不易被发现,不能以较小的预测误差成功预测未来框架,因此需要综合考虑不同的技术手段,包括传统的统计方法和现代的深度学习技术,以获得准确性和鲁棒性较高的异常检测结果,因此,本发明提出一种基于流重构和帧预测结合的视频异常检测方法以解决现有技术中存在的问题。
发明内容
针对上述问题,本发明的目的在于提出一种基于流重构和帧预测结合的视频异常检测方法,解决现有的视频异常检测技术中,由于异常事件通常是低频事件,并且正常行为的模式可能在不同场景中变化,导致异常行为不易被发现,不能以较小的预测误差成功预测未来框架的问题。
为了实现本发明的目的,本发明通过以下技术方案实现:一种基于流重构和帧预测结合的视频异常检测方法,包括以下步骤:
步骤一:先在UCSD Ped2、CUHK Avenue和ShanghaiTech三个国际公认的公共视频异常检测数据集上获取训练样本,再将训练样本中的视频数据处理成相应的帧数据;
步骤二:先提取训练和测试视频帧的光流及其所有前景对象,其中每个前景对象由RoI边界框标识,对于每个RoI边界框标识,构建一个时空立方体;
步骤三:使用基于TransUNet的多级记忆网络作为光流重构网络对步骤二中提取出的光流进行重构训练,输入时空立方体,输出重构后的光流图像,并计算重构误差及重构损失;
步骤四:采用条件变分自动编码器CVAE作为预测网络模型,并以原始视频帧数据以及重构后的光流图像输入预测网络模型进行训练,输出预测后的帧数据,并计算预测误差以及预测损失;
步骤五:使用训练好的模型进行测试,输入待检测图像,将流重构误差和帧预测误差进行加权得到异常分数,若异常分数超过预设阈值则判定当前帧图像被检测为异常帧。
进一步改进在于:所述步骤二中,构建的时空立方体包含当前帧中的对象和包含前t帧的同一边界框中的内容,其中t=4,时空立方体的宽度和高度都被调整为32。
进一步改进在于:所述步骤三中,所述基于TransUNet的多级记忆网络为基于Transformer和U-Net的网络结构,用于图像分割任务,所述光流重构网络由编码器、记忆模块、解码器、内存模块和记忆模块构成。
进一步改进在于:所述编码器部分首先将输入图片经过resnet50进行特征提取,其中的三个接口层的输出将保留并用于后续跳跃连接,接着将resnet50输出的特征图进行序列化,送入transformer网络模型中进行序列预测,输出一个序列,然后将该输出序列合并、重塑成一个新的特征图;
所述解码器的每个级别首先从编码器复制特征映射,然后将解码器的每个级别与较低级别的上采样特征映射连接起来,然后依次串联三层,每一层包含两个卷积块、一个存储模块和一个上采样层,卷积块包含卷积层、批处理规范化层和ReLU激活层;
所述内存模块为一个矩阵M∈RN*C,矩阵的每一行称为槽Mi,i=1,2,3,…,N,记忆模块通过相似记忆槽的加权和来表示输入其的特征。
进一步改进在于:所述步骤三中,所述重构训练过程中的损失函数为:
其中M为内存模块个数,为第i个内存模块中第k个插槽的匹配概率,λrecon和λent分别为加权参数。
进一步改进在于:所述步骤四中,所述预测网络模型由两个编码器Eθ以及一个解码器D构成,编码器将输入数据编码成潜在变量的分布参数,而解码器则将潜在变量解码为生成数据,网络的输入为重构后的光流以及原始帧图像的串联,Eθ对光流y1:t进行编码得到Eθ(y1:t),由此得到先验分布p(z|y1:t),/>允许x1:t和y1:t串联,输出特征/>后验分布q(x1:+,y1:t)。
进一步改进在于:所述预测网络模型训练过程中,从后验分布中采样z,并将z与条件Eθ(y1:t)连接起来,最后发送给解码器D,生成未来帧
进一步改进在于:所述步骤五中,异常分数的计算公式为:
其中,S为异常分数,μr,σr,μp,σp为所有训练样本的重构误差与预测误差的均值和标准差,wr和wp为两个分数的权重,Sr和Sp分别为重构和预测前后的L2范式计算结果。
本发明的有益效果为:本发明基于流重构和帧预测结合的视频异常检测方法,分别使用基于TransUNet改进的多级记忆网络和条件变分自编码器训练,首先,捕获了视频帧和光流之间的高度相关性,其次,重构的正常流通常具有较高的质量,预测模块能够以较小的预测误差成功预测未来框架,最后,重构误差扩大了预测误差,使异常更容易被发现,从而能获得准确性和鲁棒性较高的异常检测结果。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明的视频异常检测方法流程示意图;
图2是本发明的视频异常检测的整体网络模型结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1、图2,本实施例提供了一种基于流重构和帧预测结合的视频异常检测方法,包括以下步骤:
S10:先在UCSD Ped2、CUHK Avenue和ShanghaiTech三个国际公认的公共视频异常检测数据集上获取训练样本,再使用ffmpeg工具将训练样本中的视频数据处理成相应的帧数据;
S20:先提取训练和测试视频帧的光流及其所有前景对象,其中每个前景对象由RoI边界框标识,对于每个RoI边界框标识,构建一个时空立方体(STC),构建的时空立方体(STC)包含当前帧中的对象和包含前t帧的同一边界框中的内容,其中t=4,时空立方体的宽度和高度都被调整为32;
S30:使用基于TransUNet的多级记忆网络作为光流重构网络对步骤二中提取出的光流进行重构训练,输入时空立方体,输出重构后的光流图像,并计算重构误差及重构损失,重构训练过程中的损失函数为:
其中M为内存模块个数,为第i个内存模块中第k个插槽的匹配概率,λrecon和λent分别为加权参数;
如图2所示,本实施例的整体网络模型结构由两个分支构成,分别为光流重构分支和帧预测分支,本实施例中基于TransUNet的多级记忆网络为基于Transformer和U-Net的网络结构,用于图像分割任务,光流重构网络由编码器、记忆模块、解码器、内存模块和记忆模块构成,编码器部分首先将输入图片经过resnet50进行特征提取,其中的三个接口层(stage)的输出将保留并用于后续跳跃连接(skip-connection),接着将resnet50输出的特征图进行序列化,送入transformer网络模型中进行序列预测,输出一个序列,然后将该输出序列合并、重塑(reshape)成一个新的特征图;
解码器的每个级别首先从编码器复制特征映射,然后将解码器的每个级别与较低级别的上采样特征映射连接起来,然后依次串联三层,每一层包含两个卷积块、一个存储模块和一个上采样层,卷积块包含卷积层、批处理规范化层和ReLU激活层;
内存模块为一个矩阵M∈RN*C,矩阵的每一行称为槽Mi,i=1,2,3,…,N,记忆模块通过相似记忆槽的加权和来表示输入其的特征,因此当在正常数据上训练时具有记住正常模式的能力;
S40:采用条件变分自动编码器CVAE作为预测网络模型,并以原始视频帧数据以及重构后的光流图像输入预测网络模型进行训练,输出预测后的帧数据,并计算预测误差以及预测损失,预测网络模型由两个编码器Eθ以及一个解码器D构成,编码器将输入数据编码成潜在变量的分布参数,而解码器则将潜在变量解码为生成数据,网络的输入为重构后的光流以及原始帧图像的串联,Eθ对光流y1:t进行编码得到Eθ(y1:t),由此得到先验分布p(z|y1:t),/>允许x1:+和y1:t串联,输出特征/>后验分布q(x1:t,y1:t),预测网络模型训练过程中,从后验分布中采样z,并将z与条件Eθ(y1:t)连接起来,最后发送给解码器D,生成未来帧/>
S50:使用训练好的模型进行测试,输入待检测图像,将流重构误差和帧预测误差进行加权得到异常分数,异常分数的计算公式为:
其中,S为异常分数,μr,σr,μp,σp为所有训练样本的重构误差与预测误差的均值和标准差,wr和wp为两个分数的权重,Sr和Sp分别为重构和预测前后的L2范式计算结果,判断异常分数是否大于设置的阈值,若大于预设阈值,则执行步骤S60,若异常分数小于预设阈值,则执行步骤S70;
S60:该帧图像为异常帧;
S70:该帧图像为正常帧。
本发明使用流重构和帧预测误差作为最终的异常检测计算因素,首先,多层存储器模块采用跳跃连接编码器解码器结构,保证了正常模式被很好地记忆,从而敏感地识别异常事件或活动;其次,使用流重构和帧预测相结合的方法,从之前的视频帧和相应的光流中预测未来的帧,但是光流事先被重建,重构误差扩大了预测误差,使异常更容易被发现。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种基于流重构和帧预测结合的视频异常检测方法,其特征在于,包括以下步骤:
步骤一:先在UCSD Ped2、CUHK Avenue和ShanghaiTech三个国际公认的公共视频异常检测数据集上获取训练样本,再将训练样本中的视频数据处理成相应的帧数据;
步骤二:先提取训练和测试视频帧的光流及其所有前景对象,其中每个前景对象由RoI边界框标识,对于每个RoI边界框标识,构建一个时空立方体;
步骤三:使用基于TransUNet的多级记忆网络作为光流重构网络对步骤二中提取出的光流进行重构训练,输入时空立方体,输出重构后的光流图像,并计算重构误差及重构损失;
步骤四:采用条件变分自动编码器CVAE作为预测网络模型,并以原始视频帧数据以及重构后的光流图像输入预测网络模型进行训练,输出预测后的帧数据,并计算预测误差以及预测损失;
步骤五:使用训练好的模型进行测试,输入待检测图像,将流重构误差和帧预测误差进行加权得到异常分数,若异常分数超过预设阈值则判定当前帧图像被检测为异常帧。
2.根据权利要求1所述的一种基于流重构和帧预测结合的视频异常检测方法,其特征在于:所述步骤二中,构建的时空立方体包含当前帧中的对象和包含前t帧的同一边界框中的内容,其中t=4,时空立方体的宽度和高度都被调整为32。
3.根据权利要求1所述的一种基于流重构和帧预测结合的视频异常检测方法,其特征在于:所述步骤三中,所述基于TransUNet的多级记忆网络为基于Transformer和U-Net的网络结构,用于图像分割任务,所述光流重构网络由编码器、记忆模块、解码器、内存模块和记忆模块构成。
4.根据权利要求3所述的一种基于流重构和帧预测结合的视频异常检测方法,其特征在于:所述编码器部分首先将输入图片经过resnet50进行特征提取,其中的三个接口层的输出将保留并用于后续跳跃连接,接着将resnet50输出的特征图进行序列化,送入transformer网络模型中进行序列预测,输出一个序列,然后将该输出序列合并、重塑成一个新的特征图;
所述解码器的每个级别首先从编码器复制特征映射,然后将解码器的每个级别与较低级别的上采样特征映射连接起来,然后依次串联三层,每一层包含两个卷积块、一个存储模块和一个上采样层,卷积块包含卷积层、批处理规范化层和ReLU激活层;
所述内存模块为一个矩阵M∈RN*C,矩阵的每一行称为槽Mi,i=1,2,3,…,N,记忆模块通过相似记忆槽的加权和来表示输入其的特征。
5.根据权利要求1所述的一种基于流重构和帧预测结合的视频异常检测方法,其特征在于:所述步骤三中,所述重构训练过程中的损失函数为:
其中M为内存模块个数,为第i个内存模块中第k个插槽的匹配概率,λrecon和λent分别为加权参数。
6.根据权利要求1所述的一种基于流重构和帧预测结合的视频异常检测方法,其特征在于:所述步骤四中,所述预测网络模型由两个编码器Eθ以及一个解码器D构成,编码器将输入数据编码成潜在变量的分布参数,而解码器则将潜在变量解码为生成数据,网络的输入为重构后的光流以及原始帧图像的串联,Eθ对光流y1:t进行编码得到Eθ(y1:t),由此得到先验分布p(z|y1:t),/>允许x1:t和y1:t串联,输出特征/>后验分布q(x1:t,y1:t)。
7.根据权利要求6所述的一种基于流重构和帧预测结合的视频异常检测方法,其特征在于:所述预测网络模型训练过程中,从后验分布中采样z,并将z与条件Eθ(y1:t)连接起来,最后发送给解码器D,生成未来帧
8.根据权利要求1所述的一种基于流重构和帧预测结合的视频异常检测方法,其特征在于:所述步骤五中,异常分数的计算公式为:
其中,S为异常分数,μr,σr,μp,σp为所有训练样本的重构误差与预测误差的均值和标准差,wr和wp为两个分数的权重,Sr和Sp分别为重构和预测前后的L2范式计算结果。
CN202311142354.5A 2023-09-06 2023-09-06 一种基于流重构和帧预测结合的视频异常检测方法 Pending CN117115715A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311142354.5A CN117115715A (zh) 2023-09-06 2023-09-06 一种基于流重构和帧预测结合的视频异常检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311142354.5A CN117115715A (zh) 2023-09-06 2023-09-06 一种基于流重构和帧预测结合的视频异常检测方法

Publications (1)

Publication Number Publication Date
CN117115715A true CN117115715A (zh) 2023-11-24

Family

ID=88812606

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311142354.5A Pending CN117115715A (zh) 2023-09-06 2023-09-06 一种基于流重构和帧预测结合的视频异常检测方法

Country Status (1)

Country Link
CN (1) CN117115715A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117392590A (zh) * 2023-12-13 2024-01-12 深圳须弥云图空间科技有限公司 视频异常检测方法及装置
CN117409354A (zh) * 2023-12-11 2024-01-16 山东建筑大学 基于三路视频流和上下文感知的视频异常检测方法及***

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117409354A (zh) * 2023-12-11 2024-01-16 山东建筑大学 基于三路视频流和上下文感知的视频异常检测方法及***
CN117409354B (zh) * 2023-12-11 2024-03-22 山东建筑大学 基于三路视频流和上下文感知的视频异常检测方法及***
CN117392590A (zh) * 2023-12-13 2024-01-12 深圳须弥云图空间科技有限公司 视频异常检测方法及装置

Similar Documents

Publication Publication Date Title
CN117115715A (zh) 一种基于流重构和帧预测结合的视频异常检测方法
CN111079539B (zh) 一种基于异常追踪的视频异常行为检测方法
CN112492343A (zh) 一种视频直播监控方法及相关装置
CN110020658B (zh) 一种基于多任务深度学习的显著目标检测方法
CN112446869A (zh) 基于深度学习的无监督工业品缺陷检测方法及装置
CN112419202A (zh) 基于大数据及深度学习的野生动物图像自动识别***
CN113936132A (zh) 基于计算机视觉的化工厂水体污染检测方法与***
CN114821299B (zh) 一种遥感图像变化检测方法
CN116092179A (zh) 一种改进的yolox跌倒检测***
CN116611021A (zh) 一种基于双Transformer融合模型的多模态事件检测方法及***
CN116910752A (zh) 一种基于大数据的恶意代码检测方法
CN115239672A (zh) 缺陷检测方法及装置、设备、存储介质
CN113487223B (zh) 一种基于信息融合的风险评估方法和评估***
CN114926767A (zh) 融合隐空间自回归的预测重构视频异常检测方法
CN111881803A (zh) 一种基于改进YOLOv3的畜脸识别方法
CN117152815A (zh) 一种学生活动伴随式数据分析方法、装置及设备
CN115909144A (zh) 一种基于对抗学习的监控视频异常检测方法及***
CN116168213A (zh) 人流量数据的识别方法和人流量数据识别模型的训练方法
CN115273234A (zh) 一种基于改进ssd的人群异常行为检测方法
CN114998930A (zh) 重遮挡图像集生成及重遮挡人体目标模型训练方法
CN112396126B (zh) 一种基于检测主干与局部特征优化的目标检测方法及***
CN114676593A (zh) 一种纺织设备的异常检测方法及相关装置
CN114638304A (zh) 图像识别模型的训练方法、图像识别方法及装置
CN114140662A (zh) 一种基于循环生成对抗网络的绝缘子雷击图像样本增广方法
CN112149532A (zh) 基于前景背景解析的烟雾检测方法、***及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination