CN114549985B - 一种基于自监督对比学习的目标检测方法及*** - Google Patents

一种基于自监督对比学习的目标检测方法及*** Download PDF

Info

Publication number
CN114549985B
CN114549985B CN202210166807.7A CN202210166807A CN114549985B CN 114549985 B CN114549985 B CN 114549985B CN 202210166807 A CN202210166807 A CN 202210166807A CN 114549985 B CN114549985 B CN 114549985B
Authority
CN
China
Prior art keywords
target
target detection
self
detection model
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210166807.7A
Other languages
English (en)
Other versions
CN114549985A (zh
Inventor
张新钰
李骏
杨磊
王力
蒋涵
吴新刚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Original Assignee
Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University filed Critical Tsinghua University
Priority to CN202210166807.7A priority Critical patent/CN114549985B/zh
Publication of CN114549985A publication Critical patent/CN114549985A/zh
Application granted granted Critical
Publication of CN114549985B publication Critical patent/CN114549985B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于自监督对比学习的目标检测方法,所述方法包括:将采集的待检测图像输入预先建立和训练好的目标检测模型,得到目标检测结果;在所述目标检测模型的训练环节引入自监督对比损失函数,引导目标检测模型学习高层场景语义信息。本发明采用的孪生组合数据增强方法能够有效地针对自监督学习方法扩充原有的数据集,提升模型对于数据中干扰噪声的鲁棒性;本发明实现的自监督模块通过目标网络和在线网络的对比学习,可引导模型学习高层次的语义信息,提升目标检测网络的检测精度。

Description

一种基于自监督对比学习的目标检测方法及***
技术领域
本发明属于车辆检测领域,具体涉及一种基于自监督对比学习的目标检测方法及***,特别涉及一种基于自监督学习的2D/3D目标检测框架。
背景技术
对于基于图像的2D/3D目标检测,现有的主流算法都存在着泛化能力差的问题。相关方法在已知的训练集和验证集上表现良好,但在来自实际场景中的未知测试集上的表现相对较差。同样的目标出现在不同的光照、明暗、背景等外部环境下,算法会产生截然不同的检测结果(表现为目标检测框的有无和检测框几何参数的不同),同样,若对验证集图片进行统一的亮度变换,在经亮度变换处理的验证集上检测算法精度指标要远远低于其在原始验证集上的精度指标。上述现象说明:常规检测模型训练阶段对背景、光照、亮度、色调等底层信息存在过拟合问题。
外部环境和图像质量(如色调,亮度,对比度,饱和度和噪声)等变化很大,无法通过采集大量数据将这些差异全部包含在内,这是导致检测算法无法泛化未知商业数据的主要原因。因此,如何控制骨干网络聚焦于高层语义信息而不受图像质量变化的影响是缓解这种泛化问题的关键。
发明内容
本发明的目的在于克服现有技术缺陷,提出了一种基于自监督对比学习的目标检测方法及***。
为了实现上述目的,本发明提出了一种基于自监督对比学习的目标检测方法,所述方法包括:
将采集的待检测图像输入预先建立和训练好的目标检测模型,得到目标检测结果;
在所述目标检测模型的训练环节引入自监督对比损失函数,引导目标检测模型学习高层场景语义信息。
作为上述方法的一种改进,所述目标检测模型包括串联的骨干网络、检测头和后处理模块,其中,
所述骨干网络,用于提取待检测图像的特征,所述骨干网络包括编码器和解码器,编码器为特征提取网络;
所述检测头,用于进行目标类别预测和检测框参数的回归;
所述后处理模块,用于解析来自检测头的预测值得到检测结果,所述检测结果包括目标类别和2D/3D目标框。
作为上述方法的一种改进,所述方法还包括目标检测模型的训练步骤,具体包括:
步骤s1)建立原始图像数据集;
步骤s2)对原始图像数据集进行预处理,得到同时集成像素级数据增强和孪生组合数据增强的图像数据对;
步骤s3)依次将预处理后的一个孪生图像数据对分别输入目标检测模型和自监督模块,通过输出的自监督对比损失函数引导目标检测模型的参数更新;重复该步骤,直至满足训练要求,得到训练好的目标检测模型。
作为上述方法的一种改进,所述步骤s2)具体包括:
基于原始图像数据集,通过贴图的方式,得到背景不同且检测目标相同的孪生图像对;
对每个孪生图像对的两个图像分别以不同的概率进行色调、亮度、对比度和饱和度的像素级数据增强,从而得到像素级数据增强的孪生图像数据对。
作为上述方法的一种改进,所述步骤s3)的自监督模块包括目标网络、第一投影头、预测头和第二投影头;其中,
所述目标网络与目标检测模型的骨干网络结构相同且具有相同的初始化参数,目标网络的输出与第二投影头连接;
骨干网络的输出依次连接第一投影头和预测头;第一投影头、第二投影头和预测头的结构均相同,为两层MLP。
作为上述方法的一种改进,所述第一投影头的输入为单一尺度特征图或多尺度融合之后的特征图。
作为上述方法的一种改进,所述步骤s3)的依次将预处理后的一个孪生图像数据对分别输入目标检测模型和自监督模块,通过输出的自监督对比损失函数引导目标检测模型的参数更新;具体包括:
将一个孪生图像数据对的两幅图像分别输入目标检测模型的骨干网络和自监督模块的目标网络,计算得到均方误差
Figure BDA0003516531100000021
调换该孪生图像数据对的两幅图像分别输入骨干网络和目标网络,计算得到交换后的均方差
Figure BDA0003516531100000031
根据下式得到自监督对比损失函数
Figure BDA0003516531100000032
为:
Figure BDA0003516531100000033
根据
Figure BDA0003516531100000034
反向传播随机梯度下降更新骨干网络的参数,根据骨干网络更新后的参数对目标网络的参数进行动量更新。
作为上述方法的一种改进,所述将一个孪生图像数据对的两幅图像分别输入目标检测模型的骨干网络和自监督模块的目标网络,计算得到均方误差;具体包括:
对骨干网络输出的特征图qθ(zθ)和目标网络输出的特征图z′ξ分别进行归一化操作,得到
Figure BDA0003516531100000035
Figure BDA0003516531100000036
其中,θ和ξ分别表示骨干网络和目标网络的参数集合;
计算
Figure BDA0003516531100000037
Figure BDA0003516531100000038
的均方误差
Figure BDA0003516531100000039
Figure BDA00035165311000000310
其中,||·||2表示二阶范数。
一种基于自监督对比学习的目标检测***,所述***包括:结果输出模块和目际检测模型,其中,
所述结果输出模块,用于将采集的待检测图像输入预先建立和训练好的目标检则模型,得到目标检测结果;
在所述目标检测模型的训练环节引入自监督对比损失函数,引导目标检测模型学习高层场景语义信息。
与现有技术相比,本发明的优势在于:
1、本发明采用的孪生组合数据增强方法能够有效地针对自监督学习方法扩充原有的数据集,孪生组合数据增强及像素级数据增强为自监督模块的在线网络和目标网络生成对应的图像对,提升模型对于数据中干扰噪声的鲁棒性;
2、本发明中实现的自监督模块通过目标网络和在线网络的对比学习,可引导模型学习高层次的语义信息,提升目标检测网络的检测精度。
附图说明
图1是本发明的自监督对比学习的训练模型示意图,其中,图1(a)是作用于单一尺度特征图的自监督对比学习框架,图1(b)是作用于多尺度融合特征图的自监督对比学习框架;
图2是孪生组合数据增强方法原理图;
图3是目标检测模型测试环节原理图。
具体实施方式
本发明提出了一种基于自监督学习的目标检测方法,所述方法包括步骤:
1.对数据集进行孪生组合数据增强生成图像对;
2.对图像对进行不同的像素级数据增强;
3.在目标检测框架(以CenterNet为例)中集成自监督模块;
4.在训练环节,基于上述数据增强产生的图像对,将其中一张图片输入自监督模块中的目标网络,将另一张图片输入目标检测模型的骨干网络;
5.对上述结果进行预测及结果可视化。
需要说明的是,本实施例以CenterNet框架作为目标检测模型,仅为示例,并不限制必须采用该框架。
为了完成基于图像的2D/3D目标检测,本发明主要包括了三个部分,分别是孪生组合数据增强模块,像素级数据增强模块,自监督模块。
1.孪生组合数据增强模块:用于对原始数据集进行孪生组合数据增强生成孪生图像对。通过目标贴图,使图像对中的两张图像包含相同的检测目标,但背景不同。
2.像素级数据增强模块:对模块一生成的孪生图像对以不同的概率进行色调,亮度,对比度,饱和度等像素级数据增强。
自监督模块:在原CenterNet框架的骨干网络部分添加自监督模块,该模块由目标网络、投影头和预测头三部分组成:目标网络与原CenterNet框架中的骨干网络具有相同的网络结构和初始化参数。后接第一投影头和预测头;第二检测头接于CenterNet骨干网络之后,基于预测头和第二检测头的特征输出构建对比损失引导模型学习高层次语义信息,从而得到更好的检测性能与鲁棒性。
表1为下文及附图中用到的英文标识的解释。
表1缩略语对照表
Figure BDA0003516531100000041
Figure BDA0003516531100000051
下面结合附图和实施例对本发明的技术方案进行详细的说明。
实施例1
本发明是基于传统深度学习的自监督辅助的基于图像的目标检测方法,具体实施步骤如下:
步骤1)对原始数据集中的数据进行预处理,包括孪生组合数据增强,即在原始数据集上通过贴图的方式,生成图像对并保持每个图像对中目标一致;像素级数据增强,即对于每个图像对中输入到目标网络的图像以一定的概率进行像素级数据增强,包括对比度、亮度等。
步骤2)对图像进行特征提取;具体包括:
使用backbone进行特征提取,backbone由两部分组成:encoder采用Resnet18,decoder由三层反卷积组成。输入图像首先经过Resnet18,随后经过三层反卷积,逐步提高图像分辨率。
步骤3)自监督模块
自监督模块主要由两部分组成,分别是在线网络和目标网络。在线网络通过减少与目标网络的对比loss来进行训练,从而更好地提取特征。在线网络由三部分组成,分别是encoder即原CenterNet框架中进行特征提取的网络部分、投影头和预测头。投影头和测试头结构完全相同,均为两层MLP。目标网络与在线网络由encoder和投影头两部分组成,这两部分与在线网络的encoder和投影头结构完全相同,并且采用完全相同的初始化参数。
需要指出的是,自监督模块encoder输入投影头的特征有两种选择,分别是输入CenterNet框架回归分支中的特征图,参考图1(a);另一种选择是参考原CenterNet框架中的多尺度特征融合操作,输入多尺度融合之后的特征图,参考图1(b)。
自监督模块根据在线网络和目标网络的输出计算出一个对比loss用于自监督部分的参数更新。我们使用θ和ξ分别表示在线网络和目标网络的参数集合,分别用zθ和z′ξ表示在线网络和目标网络经过投影头之后得到的特征,若用qθ表示在线网络的预测头,则在线网络最终得到的特征图为qθ(zθ)。下面需要计算在线网络最终得到的特征图qθ(zθ)和目标网络最终得到的特征图z′ξ之间的对比loss,具体计算方法如下:
首先对两个输出进行归一化操作,得到
Figure BDA0003516531100000061
Figure BDA0003516531100000062
Figure BDA0003516531100000063
随后计算两个输出之间的均方误差:
Figure BDA0003516531100000064
由于预测头只作用于在线分支,导致自监督模块在线分支和目标分支不对称,我们交换在线分支和目标分支的输入图片,计算出与
Figure BDA0003516531100000065
对应的
Figure BDA0003516531100000066
最终采用的是这两个loss相加得到的对称对比loss:
Figure BDA0003516531100000067
自监督部分在线网络的参数由对比loss反向传播随机梯度下降更新,而目标网络的参数根据在线网络更新后的参数进行动量更新(EMA):
Figure BDA0003516531100000068
ξ←τξ+(1-τ)θ
τ一般取接近于1的值,如0.99,
Figure BDA0003516531100000069
表示微分算子。
由于在线网络的参数也会根据有监督网络得到的loss进行更新,可以根据实际情况调整对比loss占总loss的比重。
如图2所示,为孪生组合数据增强方法原理图,需要说明的是该图主要为示意性说明增强的原理及效果。
实施例2
如图3所示,本发明的实施例2提出了一种基于自监督对比学习的目标检测***,基于实施例1的方法实现,所述***包括:结果输出模块和目标检测模型,其中,
结果输出模块,用于将采集的待检测图像输入预先建立和训练好的目标检测模型,得到目标检测结果;
在所述目标检测模型的训练环节引入自监督对比损失函数,引导目标检测模型学习高层场景语义信息。
目标检测模型包括串联的骨干网络、检测头和后处理模块,其中,
所述骨干网络用于提取待检测图像的特征,包括编码器和解码器,编码器为特征提取网络(例如Resnet18);
所述检测头,用于目标类别预测和检测框参数回归;
所述后处理模块,用于解析来自检测头的预测值从而得到检测结果(包含目标类别与2D/3D目标框)。
最后所应说明的是,以上实施例仅用以说明本发明的技术方案而非限制。尽管参照实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,对本发明的技术方案进行修改或者等同替换,都不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (6)

1.一种基于自监督对比学习的目标检测方法,所述方法包括:
将采集的待检测图像输入预先建立和训练好的目标检测模型,得到目标检测结果;
在所述目标检测模型的训练环节引入自监督对比损失函数,引导目标检测模型学习高层场景语义信息;
所述方法还包括目标检测模型的训练步骤,具体包括:
步骤s1)建立原始图像数据集;
步骤s2)对原始图像数据集进行预处理,得到同时集成像素级数据增强和孪生组合数据增强的图像数据对;
步骤s3)依次将预处理后的一个孪生图像数据对分别输入目标检测模型和自监督模块,通过输出的自监督对比损失函数引导目标检测模型的参数更新;重复该步骤,直至满足训练要求,得到训练好的目标检测模型;
所述步骤s2)具体包括:
基于原始图像数据集,通过贴图的方式,得到背景不同且检测目标相同的孪生图像对;
对每个孪生图像对的两个图像分别以不同的概率进行色调、亮度、对比度和饱和度的像素级数据增强,从而得到像素级数据增强的孪生图像数据对;
所述步骤s3)的依次将预处理后的一个孪生图像数据对分别输入目标检测模型和自监督模块,通过输出的自监督对比损失函数引导目标检测模型的参数更新;具体包括:
将一个孪生图像数据对的两幅图像分别输入目标检测模型的骨干网络和自监督模块的目标网络,计算得到均方误差
Figure FDA0003828552110000011
调换该孪生图像数据对的两幅图像分别输入骨干网络和目标网络,计算得到交换后的均方差
Figure FDA0003828552110000012
根据下式得到自监督对比损失函数
Figure FDA0003828552110000013
为:
Figure FDA0003828552110000014
根据
Figure FDA0003828552110000021
反向传播随机梯度下降更新骨干网络的参数,根据骨干网络更新后的参数对目标网络的参数进行动量更新。
2.根据权利要求1所述的基于自监督对比学习的目标检测方法,其特征在于,所述目标检测模型包括串联的骨干网络、检测头和后处理模块,其中,
所述骨干网络,用于提取待检测图像的特征,所述骨干网络包括编码器和解码器,编码器为特征提取网络;
所述检测头,用于进行目标类别预测和检测框参数的回归;
所述后处理模块,用于解析来自检测头的预测值得到检测结果,所述检测结果包括目标类别和2D/3D目标框。
3.根据权利要求1所述的基于自监督对比学习的目标检测方法,其特征在于,所述步骤s3)的自监督模块包括目标网络、第一投影头、预测头和第二投影头;其中,
所述目标网络与目标检测模型的骨干网络结构相同且具有相同的初始化参数,目标网络的输出与第二投影头连接;
骨干网络的输出依次连接第一投影头和预测头;第一投影头、第二投影头和预测头的结构均相同,为两层MLP。
4.根据权利要求3所述的基于自监督对比学习的目标检测方法,其特征在于,所述第一投影头的输入为单一尺度特征图或多尺度融合之后的特征图。
5.根据权利要求4所述的基于自监督对比学习的目标检测方法,其特征在于,所述将一个孪生图像数据对的两幅图像分别输入目标检测模型的骨干网络和自监督模块的目标网络,计算得到均方误差
Figure FDA0003828552110000022
具体包括:
对骨干网络输出的特征图qθ(zθ)和目标网络输出的特征图z′ξ分别进行归一化操作,得到
Figure FDA0003828552110000023
Figure FDA0003828552110000024
其中,θ和ξ分别表示骨干网络和目标网络的参数集合;
计算
Figure FDA0003828552110000025
Figure FDA0003828552110000026
的均方误差
Figure FDA0003828552110000027
Figure FDA0003828552110000028
其中,||·||2表示二阶范数。
6.一种基于自监督对比学习的目标检测***,其特征在于,所述***包括:结果输出模块和目标检测模型,其中,
所述结果输出模块,用于将采集的待检测图像输入预先建立和训练好的目标检测模型,得到目标检测结果;
在所述目标检测模型的训练环节引入自监督对比损失函数,引导目标检测模型学习高层场景语义信息;
所述目标检测模型的训练步骤具体包括:
步骤s1)建立原始图像数据集;
步骤s2)对原始图像数据集进行预处理,得到同时集成像素级数据增强和孪生组合数据增强的图像数据对;
步骤s3)依次将预处理后的一个孪生图像数据对分别输入目标检测模型和自监督模块,通过输出的自监督对比损失函数引导目标检测模型的参数更新;重复该步骤,直至满足训练要求,得到训练好的目标检测模型;
所述步骤s2)具体包括:
基于原始图像数据集,通过贴图的方式,得到背景不同且检测目标相同的孪生图像对;
对每个孪生图像对的两个图像分别以不同的概率进行色调、亮度、对比度和饱和度的像素级数据增强,从而得到像素级数据增强的孪生图像数据对;
所述步骤s3)的依次将预处理后的一个孪生图像数据对分别输入目标检测模型和自监督模块,通过输出的自监督对比损失函数引导目标检测模型的参数更新;具体包括:
将一个孪生图像数据对的两幅图像分别输入目标检测模型的骨干网络和自监督模块的目标网络,计算得到均方误差
Figure FDA0003828552110000031
调换该孪生图像数据对的两幅图像分别输入骨干网络和目标网络,计算得到交换后的均方差
Figure FDA0003828552110000032
根据下式得到自监督对比损失函数
Figure FDA0003828552110000033
为:
Figure FDA0003828552110000034
根据
Figure FDA0003828552110000041
反向传播随机梯度下降更新骨干网络的参数,根据骨干网络更新后的参数对目标网络的参数进行动量更新。
CN202210166807.7A 2022-02-23 2022-02-23 一种基于自监督对比学习的目标检测方法及*** Active CN114549985B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210166807.7A CN114549985B (zh) 2022-02-23 2022-02-23 一种基于自监督对比学习的目标检测方法及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210166807.7A CN114549985B (zh) 2022-02-23 2022-02-23 一种基于自监督对比学习的目标检测方法及***

Publications (2)

Publication Number Publication Date
CN114549985A CN114549985A (zh) 2022-05-27
CN114549985B true CN114549985B (zh) 2023-01-31

Family

ID=81678384

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210166807.7A Active CN114549985B (zh) 2022-02-23 2022-02-23 一种基于自监督对比学习的目标检测方法及***

Country Status (1)

Country Link
CN (1) CN114549985B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116030303B (zh) * 2023-01-09 2024-01-30 深圳市大数据研究院 一种基于半监督孪生网络的视频结直肠病变分型方法
CN116071268B (zh) * 2023-03-01 2023-06-23 中国民用航空飞行学院 基于对比学习的图像去光照模型及其训练方法
CN116664825B (zh) * 2023-06-26 2024-07-19 北京智源人工智能研究院 面向大场景点云物体检测的自监督对比学习方法及***
CN116681625B (zh) * 2023-07-04 2024-02-02 广州工程技术职业学院 基于多尺度对比学习的无监督图像去雨方法、装置及终端

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106909625A (zh) * 2017-01-20 2017-06-30 清华大学 一种基于Siamese网络的图像检索方法及***
CN111833378A (zh) * 2020-06-09 2020-10-27 天津大学 一种基于代理共享网络的多无人机单目标跟踪方法及装置
CN111898633A (zh) * 2020-06-19 2020-11-06 北京理工大学 一种基于高光谱图像的海上舰船目标检测方法
CN114067177A (zh) * 2021-11-18 2022-02-18 中国人民解放军国防科技大学 一种基于自监督学习的遥感图像分类网络鲁棒性提升方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112381104A (zh) * 2020-11-16 2021-02-19 腾讯科技(深圳)有限公司 一种图像识别方法、装置、计算机设备及存储介质
CN113033460A (zh) * 2021-04-09 2021-06-25 昆明理工大学 一种基于孪生网络的联合损失遥感图像分类方法
CN114066937B (zh) * 2021-11-06 2022-09-02 中国电子科技集团公司第五十四研究所 一种大尺度遥感影像多目标跟踪方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106909625A (zh) * 2017-01-20 2017-06-30 清华大学 一种基于Siamese网络的图像检索方法及***
CN111833378A (zh) * 2020-06-09 2020-10-27 天津大学 一种基于代理共享网络的多无人机单目标跟踪方法及装置
CN111898633A (zh) * 2020-06-19 2020-11-06 北京理工大学 一种基于高光谱图像的海上舰船目标检测方法
CN114067177A (zh) * 2021-11-18 2022-02-18 中国人民解放军国防科技大学 一种基于自监督学习的遥感图像分类网络鲁棒性提升方法

Also Published As

Publication number Publication date
CN114549985A (zh) 2022-05-27

Similar Documents

Publication Publication Date Title
CN114549985B (zh) 一种基于自监督对比学习的目标检测方法及***
CN112818862B (zh) 基于多源线索与混合注意力的人脸篡改检测方法与***
CN111160407B (zh) 一种深度学习目标检测方法及***
CN110263666B (zh) 一种基于非对称多流的动作检测方法
CN114724007A (zh) 训练分类模型、数据分类方法、装置、设备、介质及产品
CN117392615B (zh) 一种基于监控视频的异常识别方法及***
CN112434608A (zh) 一种基于双流结合网络的人体行为识别方法及***
Sun et al. Learning local quality-aware structures of salient regions for stereoscopic images via deep neural networks
CN114565770A (zh) 基于边缘辅助计算和掩模注意力的图像分割方法及***
WO2024021461A1 (zh) 缺陷检测方法及装置、设备、存储介质
CN114693607A (zh) 基于多域块特征标志点配准的篡改视频检测方法及***
CN116071676A (zh) 一种基于注意力导向金字塔融合的红外小目标检测方法
CN112614070A (zh) 一种基于DefogNet的单幅图像去雾方法
CN116757986A (zh) 一种红外与可见光图像融合方法及装置
CN112348762A (zh) 一种基于多尺度融合生成对抗网络的单幅图像去雨方法
CN116994044A (zh) 一种基于掩码多模态生成对抗网络的图像异常检测模型的构建方法
CN115578722A (zh) 基于车牌间协同学习机制的车牌检测方法
CN116563303B (zh) 一种场景可泛化的交互式辐射场分割方法
CN116958736A (zh) 一种基于跨模态边缘引导的rgb-d显著性目标检测方法
CN116129417A (zh) 一种基于低质量图像的数字仪表读数检测方法
CN114596609A (zh) 一种视听伪造检测方法及装置
CN113506259A (zh) 一种基于融合网络的图像模糊判别方法及***
CN114140334A (zh) 一种基于改进生成对抗网络的复杂煤矿图像去雾方法
CN114463187B (zh) 基于聚合边缘特征的图像语义分割方法及***
CN117392392B (zh) 一种割胶线识别与生成方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant