CN116310693A - 基于边缘特征融合和高阶空间交互的伪装目标检测方法 - Google Patents
基于边缘特征融合和高阶空间交互的伪装目标检测方法 Download PDFInfo
- Publication number
- CN116310693A CN116310693A CN202310356445.2A CN202310356445A CN116310693A CN 116310693 A CN116310693 A CN 116310693A CN 202310356445 A CN202310356445 A CN 202310356445A CN 116310693 A CN116310693 A CN 116310693A
- Authority
- CN
- China
- Prior art keywords
- edge
- module
- convolution
- feature map
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于边缘特征融合和高阶空间交互的伪装目标检测方法。包括:进行数据预处理,包括数据配对、数据增强处理,得到训练数据集;设计基于边缘特征融合和高阶空间交互的伪装目标检测网络,该网络由边缘感知模块、边缘增强模块、边缘特征融合模块、高阶空间交互模块、上下文聚合模块组成;设计损失函数,指导步骤B所设计网络的参数优化;使用步骤A得到的训练数据集训练步骤B中的基于边缘特征融合和高阶空间交互的伪装目标检测网络,收敛到纳什平衡,得到训练好的基于边缘特征融合和高阶空间交互的伪装目标检测模型;将待测图像输入训练好的基于边缘特征融合和高阶空间交互的伪装目标检测模型,输出伪装目标的掩码图像。
Description
技术领域
本发明涉及图像和视频处理以及计算机视觉技术领域,特别是一种基于边缘特征融合和高阶空间交互的伪装目标检测方法。
背景技术
随着科技水平的发展,数字图像处理已经广泛应用到了人类社会生活的各个方面,不仅如此,它还能应用在科学研究等诸多方面。伪装目标检测则是一项新兴的数字图像处理任务,其目的是精确且高效地检测出嵌入周围环境中的伪装目标,将一张图像分割为伪装目标和背景,从而发现其中的伪装目标。在自然界中广泛存在伪装现象,自然界中的生物利用自身结构和生理特征来融入周围环境,从而躲避捕食者。伪装目标检测能够有助于发现大自然中的伪装生物,帮助科学家更好的研究自然生物。伪装目标检测的可应用的领域十分广阔,除了其学术价值外,伪装物体检测还有助于推动诸如军事上伪装隐蔽目标的搜索探测、医学领域上病情的判断以及农业遥感中蝗虫的入侵等等。
早期的伪装目标检测方法根据手工制作的颜色、纹理、几何梯度、频域、运动等低级特征来区分伪装目标和背景。然而大部分伪装目标与背景颜色极其相似,基于颜色的方法只能解决物体与背景有颜色差异的情况。基于纹理特征的方法在颜色非常接近背景时检测效果较好,却在伪装目标的纹理与背景相似时性能较差。基于运动的检测方法依赖于运动信息,其根据运动形成的背景颜色和纹理之间的变化差异,定位出伪装目标。但该类方法受干扰因素影响较大,会因光照变化或背景移动而出现误检漏检等问题。基于手工设计特征的伪装目标检测方法虽然能取得一定的效果,但是在在复杂场景中往往失效。
近年来,随着深度学习在计算机视觉各领域的深入应用,出现了许多基于卷积神经网络的伪装目标检测模型,这些模型以强大的特征提取能力和自主学习能力对伪装目标信息进行建模,能够提升伪装目标检测的精度,同时还能增强伪装目标检测模型的泛化性,效果较传统的伪装检测方法有明显提升。主流的方法是将图像输入到主干网络,从主干网络中提取图像特征,然后根据这些特征预测伪装目标的掩码,从而发现其中的伪装目标。这些方法充分利用卷积神经网络的语义信息和扩大感受野检测伪装目标。然而由于伪装目标在颜色和纹理上与背景有着很高的相似性,因此基于卷积神经网络的伪装目标检测模型难以学到伪装目标的特征来区分前景和背景。因此还有一些方法在原来的基础上引入了额外的线索,例如边缘信息,从而帮助基于卷积神经网络的伪装目标检测模更好地区分出伪装目标和背景。因此,利用好这些额外的信息,能够有效提高伪装目标检测的准确性。本发明设计了一种基于边缘特征融合和高阶空间交互的伪装目标检测方法,该方法首先通过主干网络提取图像特征,然后设计边缘感知模块,生成边缘掩码和边缘特征,之后设计边缘增强模块、边缘特征融合模块,构建高阶空间交互模块、上下文聚合模块,最后使用所设计的网络生成伪装目标掩码。
发明内容
有鉴于此,本发明的目的在于提供一种基于边缘特征融合和高阶空间交互的伪装目标检测方法,通过将边缘特征进行融合,并进行高阶空间交互,有利于显著提高伪装目标检测的性能。
为实现上述目的,本发明采用如下技术方案:一种基于边缘特征融合和高阶空间交互的伪装目标检测方法,包括如下步骤:
步骤A、进行数据预处理,包括数据配对、数据增强处理,得到训练数据集;
步骤B、设计基于边缘特征融合和高阶空间交互的伪装目标检测网络,该伪装目标检测网络由边缘感知模块、边缘增强模块、边缘特征融合模块、高阶空间交互模块、上下文聚合模块组成;
步骤C、设计损失函数,指导步骤B所设计网络的参数优化;
步骤D、使用步骤A得到的训练数据集训练步骤B中的基于边缘特征融合和高阶空间交互的伪装目标检测网络,收敛到纳什平衡,得到训练好的基于边缘特征融合和高阶空间交互的伪装目标检测模型;
步骤E、将待测图像输入训练好的基于边缘特征融合和高阶空间交互的伪装目标检测模型,输出伪装目标的掩码图像。
在一较佳的实施例中,所述步骤A具体实现步骤如下:
步骤A1、将每张原图像与其对应的标签图像和边缘标签图像三者组成图像三元组;
步骤A2、将每组图像三元组进行随机左右翻转、随机裁剪、随机旋转;对原图像进行颜色增强,通过设置随机值作为参数调整原图像的亮度、对比度、饱和度和清晰度;对原图像对应的标签图像添加随机黑点或白点作为随机噪声;
步骤A3、将数据集中的每张图像缩放为尺寸为H×W的大小相同的图像。
在一较佳的实施例中,所述步骤B具体实现步骤如下:
步骤B1、构建图像特征提取网络,使用所构建的网络提取图像特征;
步骤B2、设计边缘感知模块,使用所设计的模块生成边缘掩码和边缘特征;
步骤B3、设计边缘增强模块和边缘特征融合模块,使用边缘增强模块增强具有伪装目标边缘结构语义的特征表示,用边缘特征融合模块生成融合边缘信息的特征;
步骤B4、构建高阶空间交互模块和上下文聚合模块,使用高阶空间交互模块抑制对背景的关注,促进对前景的关注,用上下文聚合模块来挖掘上下文语义以增强对象检测;
步骤B5、设计基于边缘特征融合和高阶空间交互的伪装目标检测网络,包括边缘感知模块、边缘特征融合模块、边缘增强模块、高阶空间交互模块、上下文聚合模块,使用所设计的网络生成最终的伪装目标掩码。
在一较佳的实施例中,所述步骤B1具体实现步骤如下:
步骤B1、以Res2Net-50作为主干网络,对输入大小为H×W×3的原图像I进行特征提取,具体地,分别记原图像I经过第一阶段、第二阶段、第三阶段和第四阶段输出的特征图为F1、F2、F3和F4,其中特征图F1大小为 特征图F2大小为/>特征图F3大小为/>特征图F4大小为/>C=256。
在一较佳的实施例中,所述步骤B2具体实现步骤如下:
步骤B21、设计边缘感知模块,该边缘感知模块的输入为步骤B1中提取的第一阶段特征图F1和第四阶段特征图F4,该边缘感知模块输出为边缘特征图Fe和边缘掩码Me;
步骤B22、设计边缘感知模块中的特征融合块;该边缘感知模块的输入为步骤B1中提取的特征图F1和F4,输入特征图F1依次经过1×1卷积、BN层、ReLU激活函数减少通道数得到特征图输入特征图F4依次经过1×1卷积、BN层、ReLU激活函数减少通道数得到特征图/>使用双线性插值将特征图F'4的宽度和高度调整到和F″1一样的宽度和高度,得到特征图/>将F'1和F″4″沿通道维度拼接后经过通道注意力模块得到边缘特征图/>具体公式表示如下:
F1=ReLU(BN(Conv1(F1)))
F4=ReLU(BN(Conv1(F4)))
”'
F4=Up(F4)
Fe=SE(Concat(F1,F4))
其中Conv1(·)是卷积核大小为1×1的卷积层,BN(·)是批归一化操作,ReLU(·)是ReLU激活函数,Up(·)是双线性插值上采样,Concat(·,·)是沿通道维度拼接操作,SE(·)是通道注意力模块;
步骤B23、设计边缘感知模块中的卷积块;输入为步骤B22得到的边缘特征图Fe,依次经过3×3卷积、BN层、ReLU激活函数、3×3卷积、BN层、ReLU激活函数、1×1卷积最终生成边缘掩码具体公式表示如下:
Me=Conv1(ReLU(BN(Conv3(ReLU(BN(Conv3(Fe))))))))
其中Conv3(·)是卷积核大小为3×3的卷积层,BN(·)是批归一化操作,ReLU(·)是激活函数,Conv1(·)是卷积核大小为1×1卷积。
在一较佳的实施例中,所述步骤B3具体实现步骤如下:
步骤B31、设计边缘增强模块,首先设计边缘增强模块中的边缘引导操作;输入为步骤B2得到的边缘掩码Me和步骤B1得到的特征图 将输入的边缘掩码Me进行双线性插值下采样到与特征图Fi相同的宽度和高度,得到掩码/>将掩码M'e与特征图Fi相乘,再与Fi相加,然后依次经过3×3卷积、BN层、ReLU激活函数,得到边缘引导的特征图/>具体公式表示如下:
M'e=Down(Me)
Fee=SA(SE(Fguide))
其中,SE(·)是通道注意力模块,SA(·)是空间注意力模块;
步骤B33、设计边缘特征融合模块,输入为步骤B1中提取的第一阶段特征图步骤B2得到的边缘特征图/>和边缘掩码/>将边缘掩码Me与特征图F4相乘,再与F4相加,得到特征图/>将边缘特征图Fe依次经过3×3卷积、BN层、ReLU激活函数,得到缩减通道后的特征图/>将FM与F'e沿通道维度拼接再依次经过3×3卷积、Swish激活函数、3×3卷积、Swish激活函数、SE模块、3×3卷积,最后再加上特征图F'e,得到第一次融合边缘信息的特征图/>将特征图F'e经过SE模块再与/>沿通道维度拼接,然后经过一个3×3卷积,得到第二次融合边缘信息的特征图/> 最后再将特征图/>与特征图F1相加得到最终融合边缘信息的特征图/>具体公式表示如下:
F'e=ReLU(BN(Conv3(Fe)))
其中是矩阵乘法运算,/>是矩阵加法运算,Conv3(·)是是卷积核大小为3×3的卷积层,BN(·)是批归一化操作,ReLU(·)是激活函数,Swish(·)是Swish激活函数,SE(·)是通道注意力模块,Concat(·,·)是沿通道维度拼接操作。
在一较佳的实施例中,所述步骤B4具体实现步骤如下:
步骤B41、首先构建高阶空间交互模块中的门控卷积模块,记该模块输入的特征图为将输入特征图Fα进行层归一化(记为LN1),得到归一化特征图接着将/>经过一个1×1卷积将其通道扩大到原来的两倍,得到特征图/>将/>沿通道拆分为两个特征图/>将q输入到深度可分离卷积后得到特征图/>再将其拆分为n(n为阶数)个特征图/>其中/>将特征图p0与特征图q0相乘后经过一个1×1卷积将其通道扩大到原来的两倍,得到第一次空间交互特征图/>将特征图p1与特征图q1相乘后经过一个1×1卷积将其通道扩大到原来的两倍,得到第二次空间交互特征图/>然后依次迭代到特征图pn-1与特征图qn-1相乘后经过一个输入通道数与输出通道数相同、卷积核大小为1×1的卷积层,得到n次空间交互特征图/>最后将输入特征图Fα与pn相加得到中间输出特征图/>具体公式表示如下:
Q=DWConv(q)
步骤B42、构建高阶空间交互模块中的前馈模块,输入为步骤B41得到的特征图Fmid,对Fmid进行层归一化,记为LN2,之后输入两层全连接层中,记为MLP,两层全连接层的输出再与特征图Fmid相加后得到高阶空间交互特征具体公式表示如下:
F’hsi=ReLU(BN(Conv1(Fhsi)))
其中Conv1(·)是卷积核大小为1×1的卷积层,BN(·)是批归一化操作,ReLU(·)是激活函数;
步骤B44、首先构建上下文聚合模块中的卷积块,记该上下文聚合模块输入为两个不同尺度的特征图和/>先将特征图Fhigh进行双线性插值上采样,将其宽度和高度调整到与Flow同样的宽度和高度,再与Flow沿通道维度拼接,然后依次经过1×1卷积、BN层、ReLU激活函数得到特征图/>再将Fcat沿通道维度平均分为四个特征图/>和/>将/>和/>相加后依次经过3×3卷积、BN层、ReLU激活函数得到特征图/>将/>和/>三者相加后依次经过膨胀率为2的3×3卷积、BN层、ReLU激活函数得到特征图/> 将/>和/>三者相加后依次经过膨胀率为3的3×3卷积、BN层、ReLU激活函数得到特征图/>将/>和/>相加后依次经过膨胀率为4的3×3卷积、BN层、ReLU激活函数得到特征图然后将/>和/>沿通道维度拼接后依次经过1×1卷积、BN层、ReLU激活函数得到特征图/>最后将Fcat和F'cat相加后依次经过3×3卷积、BN层、ReLU激活函数得到上下文特征图/>具体公式表示如下:
Fcat=ReLU(BN(Conv1(Concat(Flow,Up(Fhigh)))))
其中Up(·)是双线性插值上采样操作,Concat(·,·)和Concat(·,·,·,·)是沿通道维度拼接操作,是矩阵加法运算,Conv3(·)是卷积核大小为3×3的卷积层,Conv3d=i(·)是膨胀率为i的3×3卷积,Conv1(·)是卷积核大小为1×1的卷积层,BN(·)是批归一化操作,ReLU(·)是激活函数,Split(·)是沿通道维度均等拆分操作。
在一较佳的实施例中,所述步骤B5具体实现步骤如下:
步骤B5、设计基于边缘特征融合和高阶空间交互的伪装目标检测网络,包括边缘感知模块、边缘特征融合模块、边缘增强模块、高阶空间交互模块、上下文聚合模块;输入原图像,经过步骤B1的主干网络得到四个不同尺度的特征图和/> 将F1和F4输入到步骤B2中的边缘感知模块,得到边缘特征图/> 和边缘掩码/>然后构建三个步骤B3中的边缘增强模块,分别记为EEM1、EEM2和EEM3,其中EEM1的输入为步骤B1中提取的第四阶段特征图F4和步骤B2得到的边缘掩码Me,输出为边缘增强特征EEM2的输入为步骤B1中提取的第三阶段特征图F3和步骤B2得到的边缘掩码Me,输出为边缘增强特征/>EEM3的输入为步骤B1中提取的第二阶段特征图F2和步骤B2得到的边缘掩码Me,输出为边缘增强特征/>接着构建一个步骤B3中的边缘特征融合模块,输入为步骤B1中提取的第一阶段特征图F1、步骤B2得到的边缘特征图Fe和边缘掩码Me,输出为融合边缘信息的特征图/>然后,构建四个步骤B4中的高阶空间交互模块,分别记为HSIM1、HSIM2、HSIM3和HSIM4,它们的输入分别是步骤B3得到的特征图/> 和/>输出分别为/> 和/>紧接着构建三个步骤B4中的上下文聚合模块中,分别记为CAM1、CAM2和CAM3,其中CAM1的输入为特征图/>和/>输出为上下文特征图/> CAM2的输入为CAM1的输出和特征图/>输出为上下文特征图/>CAM3的输入为CAM2的输出/>和特征图/>输出为上下文特征图/>对于边缘掩码Me,将其进行双线性插值上采样放大4倍,得到最终边缘掩码Medge;对于上下文特征图/>经过1×1卷积将其压缩为1通道后将进行双线性插值上采样放大16倍,得到第一阶段伪装目标掩码/>对于上下文特征图/>经过1×1卷积将其压缩为1通道后将其进行双线性插值上采样放大8倍,得到第二阶段伪装目标掩码/>对于上下文特征图/>经过1×1卷积将其压缩为1通道后将其进行双线性插值上采样放大4倍,得到最终伪装目标掩码/>具体公式表示如下:
Medge=Upscale=4(Me)
其中,Upscale=4(·)是倍数为4的双线性插值上采样,Upscale=8(·)是倍数为8的双线性插值上采样,Upscale=16(·)是倍数为16的双线性插值上采样,Conv1(·)是卷积核大小为1×1、输出通道数为1的卷积层。
在一较佳的实施例中,所述步骤C具体实现步骤如下:
步骤C、设计损失函数作为约束来优化基于边缘特征融合和高阶空间交互的伪装目标检测网络,具体的公式如下:
其中,Gcamo表示原图像I对应的标签图像,Gedge表示原图像I对应的边缘标签图像,表示为总的损失函数,/>表示加权二元交叉熵损失,/>表示为加权交并比损失,表示Dice系数损失,λ表示为该损失的权重。
在一较佳的实施例中,所述步骤D具体实现步骤如下:
步骤D1、将步骤A得到的训练数据集随机划分为若干个批次,每个批次包含N对图像;
步骤D3、根据损失使用反向传播方法计算网络中参数的梯度,并利用Adam优化方法更新网络参数;
步骤D4、以批次为单位重复执行步骤D1至步骤D3,直至网络的目标损失函数数值收敛至纳什平衡,保存网络参数,得到基于边缘特征融合和高阶空间交互的伪装目标检测模型;对于测试的伪装目标图像,以模型预测的三个伪装目标掩码中分辨率最大的作为最终的伪装目标掩码。
与现有技术相比,本发明具有以下有益效果:本发明在利用好边缘信息的基础上,将边缘信息更好的与主干特征融合,同时对特征进行高阶空间交互,能更好得学习图像中伪装目标和背景之间的关系。本发明提出了一种基于边缘特征融合和高阶空间交互的伪装目标检测方法,分别通过边缘感知模块生成边缘特征和边缘掩码,在边缘增强模块和边缘特征融合模块中融合边缘信息,在高阶空间交互模块中对融合特征进行高阶空间交互,最后在上下文聚合模块中聚合不同层次的特征,最终能够输出高质量的伪装目标掩码。
附图说明
图1是本发明优选实施例中方法的实现流程图。
图2是本发明优选实施例中基于边缘特征融合和高阶空间交互的伪装目标检测网络的结构图。
图3是本发明优选实施例中边缘感知模块的结构图。
图4是本发明优选实施例中边缘增强模块的结构图。
图5是本发明优选实施例中边缘特征融合模块的结构图。
图6是本发明优选实施例中高阶空间交互模块的结构图。
图7是本发明优选实施例中上下文聚合模块的结构图。
具体实施方式
下面结合附图及实施例对本发明做进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式;如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
本发明提供一种基于边缘特征融合和高阶空间交互的伪装目标检测方法,如图1-7所示,包括以下步骤:
步骤A、进行数据预处理,包括数据配对、数据增强处理,得到训练数据集;
步骤B、设计基于边缘特征融合和高阶空间交互的伪装目标检测网络,该网络由边缘感知模块、边缘增强模块、边缘特征融合模块、高阶空间交互模块、上下文聚合模块组成;
步骤C、设计损失函数,指导步骤B所设计网络的参数优化;
步骤D、使用步骤A得到的训练数据集训练步骤B中的基于边缘特征融合和高阶空间交互的伪装目标检测网络,收敛到纳什平衡,得到训练好的基于边缘特征融合和高阶空间交互的伪装目标检测模型;
步骤E、将待测图像输入训练好的基于边缘特征融合和高阶空间交互的伪装目标检测模型,输出伪装目标的掩码图像。
进一步地,所述步骤A包括以下步骤:
步骤A1、将每张原图像与其对应的标签图像和边缘标签图像三者组成图像三元组。
步骤A2、将每组图像三元组进行随机左右翻转、随机裁剪、随机旋转;对原图像进行颜色增强,通过设置随机值作为参数调整原图像的亮度、对比度、饱和度和清晰度;对原图像对应的标签图像添加随机黑点或白点作为随机噪声。
步骤A3、将数据集中的每张图像缩放为尺寸为H×W的大小相同的图像。
进一步地,所述步骤B包括以下步骤:
步骤B1、构建图像特征提取网络,使用所构建的网络提取图像特征。
步骤B2、设计边缘感知模块,使用所设计的模块生成边缘掩码和边缘特征。
步骤B3、设计边缘增强模块和边缘特征融合模块,使用边缘增强模块增强具有伪装目标边缘结构语义的特征表示,用边缘特征融合模块生成融合边缘信息的特征。
步骤B4、构建高阶空间交互模块和上下文聚合模块,使用高阶空间交互模块抑制对背景的关注,促进对前景的关注,用上下文聚合模块来挖掘上下文语义以增强对象检测。
步骤B5、设计基于边缘特征融合和高阶空间交互的伪装目标检测网络,包括边缘感知模块、边缘特征融合模块、边缘增强模块、高阶空间交互模块、上下文聚合模块,使用所设计的网络生成最终的伪装目标掩码。
进一步地,步骤B1包括以下步骤:
步骤B1、以Res2Net-50作为主干网络,对输入大小为H×W×3的原图像I进行特征提取,具体地,分别记原图像I经过第一阶段、第二阶段、第三阶段和第四阶段输出的特征图为F1、F2、F3和F4,其中特征图F1大小为特征图F2大小为/>特征图F3大小为/>特征图F4大小为/>
进一步地,如图3所示,步骤B2包括以下步骤:
步骤B21、设计边缘感知模块,该模块的输入为步骤B1中提取的第一阶段特征图F1和第四阶段特征图F4,该模块输出为边缘特征图Fe和边缘掩码Me。
步骤B22、设计边缘感知模块中的特征融合块。该模块的输入为步骤B1中提取的特征图F1和F4,输入特征图F1依次经过1×1卷积、BN层、ReLU激活函数减少通道数得到特征图输入特征图F4依次经过1×1卷积、BN层、ReLU激活函数减少通道数得到特征图/>使用双线性插值将特征图F'4的宽度和高度调整到和F'1一样的宽度和高度,得到特征图/>将F’1和F”’4沿通道维度拼接后经过通道注意力模块得到边缘特征图/>具体公式表示如下:
F’1=ReLU(BN(Conv1(F1)))
F’4=ReLU(BN(Conv1(F4)))
F”4=Up(F’4)
Fe=SE(Concat(F’1,F”4))
其中Conv1(·)是卷积核大小为1×1的卷积层,BN(·)是批归一化操作,ReLU(·)是ReLU激活函数,Up(·)是双线性插值上采样,Concat(·,·)是沿通道维度拼接操作,SE(·)是通道注意力模块。
步骤B23、设计边缘感知模块中的卷积块。输入为步骤B22得到的边缘特征图Fe,依次经过3×3卷积、BN层、ReLU激活函数、3×3卷积、BN层、ReLU激活函数、1×1卷积最终生成边缘掩码具体公式表示如下:
Me=Conv1(ReLU(BN(Conv3(ReLU(BN(Conv3(Fe))))))))
其中Conv3(·)是卷积核大小为3×3的卷积层,BN(·)是批归一化操作,ReLU(·)是激活函数,Conv1(·)是卷积核大小为1×1卷积。
进一步地,如图4和图5所示,步骤B3包括以下步骤:
步骤B31、设计边缘增强模块,首先设计边缘增强模块中的边缘引导操作。输入为步骤B2得到的边缘掩码Me和步骤B1得到的特征图将输入的边缘掩码Me进行双线性插值下采样到与特征图Fi相同的宽度和高度,得到掩码/>将掩码M'e与特征图Fi相乘,再与Fi相加,然后依次经过3×3卷积、BN层、ReLU激活函数,得到边缘引导的特征图/> 具体公式表示如下:
M'e=Down(Me)
Fee=SA(SE(Fguide))
其中,SE(·)是通道注意力模块,SA(·)是空间注意力模块。
步骤B33、设计边缘特征融合模块,输入为步骤B1中提取的第一阶段特征图步骤B2得到的边缘特征图/>和边缘掩码/>将边缘掩码Me与特征图F4相乘,再与F4相加,得到特征图/>将边缘特征图Fe依次经过3×3卷积、BN层、ReLU激活函数,得到缩减通道后的特征图/>将FM与F'e沿通道维度拼接再依次经过3×3卷积、Swish激活函数、3×3卷积、Swish激活函数、SE模块、3×3卷积,最后再加上特征图F'e,得到第一次融合边缘信息的特征图/> 将特征图F'e经过SE模块再与/>沿通道维度拼接,然后经过一个3×3卷积,得到第二次融合边缘信息的特征图/>最后再将特征图/>与特征图F1相加得到最终融合边缘信息的特征图/> 具体公式表示如下:
F'e=ReLU(BN(Conv3(Fe)))
其中是矩阵乘法运算,/>是矩阵加法运算,Conv3(·)是是卷积核大小为3×3的卷积层,BN(·)是批归一化操作,ReLU(·)是激活函数,Swish(·)是Swish激活函数,SE(·)是通道注意力模块,Concat(·,·)是沿通道维度拼接操作。
进一步地,如图6和图7所示,步骤B4包括以下步骤:
步骤B41、首先构建高阶空间交互模块中的门控卷积模块,记该模块输入的特征图为将输入特征图Fα进行层归一化(记为LN1),得到归一化特征图接着将/>经过一个1×1卷积将其通道扩大到原来的两倍,得到特征图将/>沿通道拆分为两个特征图/>将q输入到深度可分离卷积后得到特征图/>再将其拆分为n(n为阶数)个特征图/>其中/>将特征图p0与特征图q0相乘后经过一个1×1卷积将其通道扩大到原来的两倍,得到第一次空间交互特征图/>将特征图p1与特征图q1相乘后经过一个1×1卷积将其通道扩大到原来的两倍,得到第二次空间交互特征图/>然后依次迭代到特征图pn-1与特征图qn-1相乘后经过一个输入通道数与输出通道数相同、卷积核大小为1×1的卷积层,得到n次空间交互特征图/>最后将输入特征图Fα与pn相加得到中间输出特征图/>具体公式表示如下:
Q=DWConv(q)
步骤B42、构建高阶空间交互模块中的前馈模块,输入为步骤B41得到的特征图Fmid,对Fmid进行层归一化(记为LN2),之后输入两层全连接层中(记为MLP),两层全连接层的输出再与特征图Fmid相加后得到高阶空间交互特征具体公式表示如下:
F’hsi=ReLU(BN(Conv1(Fhsi)))
其中Conv1(·)是卷积核大小为1×1的卷积层,BN(·)是批归一化操作,ReLU(·)是激活函数。
步骤B44、首先构建上下文聚合模块中的卷积块,记该模块输入为两个不同尺度的特征图和/>先将特征图Fhigh进行双线性插值上采样,将其宽度和高度调整到与Flow同样的宽度和高度,再与Flow沿通道维度拼接,然后依次经过1×1卷积、BN层、ReLU激活函数得到特征图/>再将Fcat沿通道维度平均分为四个特征图/>和/> 将/>和/>相加后依次经过3×3卷积、BN层、ReLU激活函数得到特征图/>将/>和/>三者相加后依次经过膨胀率为2的3×3卷积、BN层、ReLU激活函数得到特征图/> 将/>和/>三者相加后依次经过膨胀率为3的3×3卷积、BN层、ReLU激活函数得到特征图/>将/>和/>相加后依次经过膨胀率为4的3×3卷积、BN层、ReLU激活函数得到特征图然后将/>和/>沿通道维度拼接后依次经过1×1卷积、BN层、ReLU激活函数得到特征图/>最后将Fcat和F'cat相加后依次经过3×3卷积、BN层、ReLU激活函数得到上下文特征图/>具体公式表示如下:
Fcat=ReLU(BN(Conv1(Concat(Flow,Up(Fhigh)))))
其中Up(·)是双线性插值上采样操作,Concat(·,·)和Concat(·,·,·,·)是沿通道维度拼接操作,是矩阵加法运算,Conv3(·)是卷积核大小为3×3的卷积层,Conv3d=i(·)是膨胀率为i的3×3卷积,Conv1(·)是卷积核大小为1×1的卷积层,BN(·)是批归一化操作,ReLU(·)是激活函数,Split(·)是沿通道维度均等拆分操作。
进一步地,如图2所示,步骤B5包括以下步骤:
步骤B5、设计基于边缘特征融合和高阶空间交互的伪装目标检测网络,包括边缘感知模块、边缘特征融合模块、边缘增强模块、高阶空间交互模块、上下文聚合模块。输入原图像,经过步骤B1的主干网络得到四个不同尺度的特征图和/>将F1和F4输入到步骤B2中的边缘感知模块,得到边缘特征图/>和边缘掩码/>然后构建三个步骤B3中的边缘增强模块,分别记为EEM1、EEM2和EEM3,其中EEM1的输入为步骤B1中提取的第四阶段特征图F4和步骤B2得到的边缘掩码Me,输出为边缘增强特征/> EEM2的输入为步骤B1中提取的第三阶段特征图F3和步骤B2得到的边缘掩码Me,输出为边缘增强特征/>EEM3的输入为步骤B1中提取的第二阶段特征图F2和步骤B2得到的边缘掩码Me,输出为边缘增强特征/>接着构建一个步骤B3中的边缘特征融合模块,输入为步骤B1中提取的第一阶段特征图F1、步骤B2得到的边缘特征图Fe和边缘掩码Me,输出为融合边缘信息的特征图/>然后,构建四个步骤B4中的高阶空间交互模块,分别记为HSIM1、HSIM2、HSIM3和HSIM4,它们的输入分别是步骤B3得到的特征图 和/>输出分别为 和/>紧接着构建三个步骤B4中的上下文聚合模块中,分别记为CAM1、CAM2和CAM3,其中CAM1的输入为特征图/>和/>输出为上下文特征图/>CAM2的输入为CAM1的输出/>和特征图/>输出为上下文特征图/>CAM3的输入为CAM2的输出/>和特征图/>输出为上下文特征图/>对于边缘掩码Me,将其进行双线性插值上采样放大4倍,得到最终边缘掩码Medge。对于上下文特征图/>经过1×1卷积将其压缩为1通道后将进行双线性插值上采样放大16倍,得到第一阶段伪装目标掩码/>对于上下文特征图/>经过1×1卷积将其压缩为1通道后将其进行双线性插值上采样放大8倍,得到第二阶段伪装目标掩码/>对于上下文特征图/>经过1×1卷积将其压缩为1通道后将其进行双线性插值上采样放大4倍,得到最终伪装目标掩码/>具体公式表示如下:
Medge=Upscale=4(Me)
其中,Upscale=4(·)是倍数为4的双线性插值上采样,Upscale=8(·)是倍数为8的双线性插值上采样,Upscale=16(·)是倍数为16的双线性插值上采样,Conv1(·)是卷积核大小为1×1、输出通道数为1的卷积层。
进一步地,步骤C包括以下步骤:
步骤C、设计损失函数作为约束来优化基于边缘特征融合和高阶空间交互的伪装目标检测网络,具体的公式如下:
其中,Gcamo表示原图像I对应的标签图像,Gedge表示原图像I对应的边缘标签图像,表示为总的损失函数,/>表示加权二元交叉熵损失,/>表示为加权交并比损失,/>表示Dice系数损失,λ表示为该损失的权重。/>
进一步地,所述步骤D实现如下:
步骤D1、将步骤A得到的训练数据集随机划分为若干个批次,每个批次包含N对图像。
步骤D3、根据损失使用反向传播方法计算网络中参数的梯度,并利用Adam优化方法更新网络参数。
步骤D4、以批次为单位重复执行步骤D1至步骤D3,直至网络的目标损失函数数值收敛至纳什平衡,保存网络参数,得到基于边缘特征融合和高阶空间交互的伪装目标检测模型。对于测试的伪装目标图像,以模型预测的三个伪装目标掩码中分辨率最大的作为最终的伪装目标掩码。
以上是本发明的较佳实施例,凡依本发明技术方案所作的改变,所产生的功能作用未超出本发明技术方案的范围时,均属于本发明的保护范围。
Claims (10)
1.基于边缘特征融合和高阶空间交互的伪装目标检测方法,其特征在于,包括如下步骤:
步骤A、进行数据预处理,包括数据配对、数据增强处理,得到训练数据集;
步骤B、设计基于边缘特征融合和高阶空间交互的伪装目标检测网络,该伪装目标检测网络由边缘感知模块、边缘增强模块、边缘特征融合模块、高阶空间交互模块、上下文聚合模块组成;
步骤C、设计损失函数,指导步骤B所设计网络的参数优化;
步骤D、使用步骤A得到的训练数据集训练步骤B中的基于边缘特征融合和高阶空间交互的伪装目标检测网络,收敛到纳什平衡,得到训练好的基于边缘特征融合和高阶空间交互的伪装目标检测模型;
步骤E、将待测图像输入训练好的基于边缘特征融合和高阶空间交互的伪装目标检测模型,输出伪装目标的掩码图像。
2.根据权利要求1所述的基于边缘特征融合和高阶空间交互的伪装目标检测方法,其特征在于,所述步骤A具体实现步骤如下:
步骤A1、将每张原图像与其对应的标签图像和边缘标签图像三者组成图像三元组;
步骤A2、将每组图像三元组进行随机左右翻转、随机裁剪、随机旋转;对原图像进行颜色增强,通过设置随机值作为参数调整原图像的亮度、对比度、饱和度和清晰度;对原图像对应的标签图像添加随机黑点或白点作为随机噪声;
步骤A3、将数据集中的每张图像缩放为尺寸为H×W的大小相同的图像。
3.根据权利要求1所述的基于边缘特征融合和高阶空间交互的伪装目标检测方法,其特征在于,所述步骤B具体实现步骤如下:
步骤B1、构建图像特征提取网络,使用所构建的网络提取图像特征;
步骤B2、设计边缘感知模块,使用所设计的模块生成边缘掩码和边缘特征;
步骤B3、设计边缘增强模块和边缘特征融合模块,使用边缘增强模块增强具有伪装目标边缘结构语义的特征表示,用边缘特征融合模块生成融合边缘信息的特征;
步骤B4、构建高阶空间交互模块和上下文聚合模块,使用高阶空间交互模块抑制对背景的关注,促进对前景的关注,用上下文聚合模块来挖掘上下文语义以增强对象检测;
步骤B5、设计基于边缘特征融合和高阶空间交互的伪装目标检测网络,包括边缘感知模块、边缘特征融合模块、边缘增强模块、高阶空间交互模块、上下文聚合模块,使用所设计的网络生成最终的伪装目标掩码。
5.根据权利要求3所述的基于边缘特征融合和高阶空间交互的伪装目标检测方法,其特征在于,所述步骤B2具体实现步骤如下:
步骤B21、设计边缘感知模块,该边缘感知模块的输入为步骤B1中提取的第一阶段特征图F1和第四阶段特征图F4,该边缘感知模块输出为边缘特征图Fe和边缘掩码Me;
步骤B22、设计边缘感知模块中的特征融合块;该边缘感知模块的输入为步骤B1中提取的特征图F1和F4,输入特征图F1依次经过1×1卷积、BN层、ReLU激活函数减少通道数得到特征图输入特征图F4依次经过1×1卷积、BN层、ReLU激活函数减少通道数得到特征图/>使用双线性插值将特征图F'4的宽度和高度调整到和F'1一样的宽度和高度,得到特征图/>将F'1和F″4沿通道维度拼接后经过通道注意力模块得到边缘特征图/>具体公式表示如下:
F′1=ReLU(BN(Conv1(F1)))
F′4=ReLU(BN(Conv1(F4)))
F″4=Up(F′4)
Fe=SE(Concat(F′1,F″4))
其中Conv1(·)是卷积核大小为1×1的卷积层,BN(·)是批归一化操作,ReLU(·)是ReLU激活函数,Up(·)是双线性插值上采样,Concat(·,·)是沿通道维度拼接操作,SE(·)是通道注意力模块;
步骤B23、设计边缘感知模块中的卷积块;输入为步骤B22得到的边缘特征图Fe,依次经过3×3卷积、BN层、ReLU激活函数、3×3卷积、BN层、ReLU激活函数、1×1卷积最终生成边缘掩码具体公式表示如下:
Me=Conv1(ReLU(BN(Conv3(ReLU(BN(Conv3(Fe))))))))
其中Conv3(·)是卷积核大小为3×3的卷积层,BN(·)是批归一化操作,ReLU(·)是激活函数,Conv1(·)是卷积核大小为1×1卷积。
6.根据权利要求3所述的基于边缘特征融合和高阶空间交互的伪装目标检测方法,其特征在于,所述步骤B3具体实现步骤如下:
步骤B31、设计边缘增强模块,首先设计边缘增强模块中的边缘引导操作;输入为步骤B2得到的边缘掩码Me和步骤B1得到的特征图 将输入的边缘掩码Me进行双线性插值下采样到与特征图Fi相同的宽度和高度,得到掩码/>将掩码M'e与特征图Fi相乘,再与Fi相加,然后依次经过3×3卷积、BN层、ReLU激活函数,得到边缘引导的特征图/>具体公式表示如下:
M'e=Down(Me)
Fee=SA(SE(Fguide))
其中,SE(·)是通道注意力模块,SA(·)是空间注意力模块;
步骤B33、设计边缘特征融合模块,输入为步骤B1中提取的第一阶段特征图步骤B2得到的边缘特征图/>和边缘掩码/>将边缘掩码Me与特征图F4相乘,再与F4相加,得到特征图/>将边缘特征图Fe依次经过3×3卷积、BN层、ReLU激活函数,得到缩减通道后的特征图/>将FM与F'e沿通道维度拼接再依次经过3×3卷积、Swish激活函数、3×3卷积、Swish激活函数、SE模块、3×3卷积,最后再加上特征图F'e,得到第一次融合边缘信息的特征图/>将特征图F'e经过SE模块再与/>沿通道维度拼接,然后经过一个3×3卷积,得到第二次融合边缘信息的特征图/> 最后再将特征图/>与特征图F1相加得到最终融合边缘信息的特征图/>具体公式表示如下:
F'e=ReLI(BN(Conv3(Fe)))
7.根据权利要求3所述的基于边缘特征融合和高阶空间交互的伪装目标检测方法,其特征在于,所述步骤B4具体实现步骤如下:
步骤B41、首先构建高阶空间交互模块中的门控卷积模块,记该模块输入的特征图为将输入特征图Fα进行层归一化(记为LN1),得到归一化特征图接着将/>经过一个1×1卷积将其通道扩大到原来的两倍,得到特征图将/>沿通道拆分为两个特征图/>将q输入到深度可分离卷积后得到特征图/>再将其拆分为n(n为阶数)个特征图/>其中/>将特征图p0与特征图q0相乘后经过一个1×1卷积将其通道扩大到原来的两倍,得到第一次空间交互特征图/>将特征图p1与特征图q1相乘后经过一个1×1卷积将其通道扩大到原来的两倍,得到第二次空间交互特征图/>然后依次迭代到特征图pn-1与特征图qn-1相乘后经过一个输入通道数与输出通道数相同、卷积核大小为1×1的卷积层,得到n次空间交互特征图/>最后将输入特征图Fα与pn相加得到中间输出特征图/>具体公式表示如下:
Q=DWConv(q)
步骤B42、构建高阶空间交互模块中的前馈模块,输入为步骤B41得到的特征图Fmid,对Fmid进行层归一化,记为LN2,之后输入两层全连接层中,记为MLP,两层全连接层的输出再与特征图Fmid相加后得到高阶空间交互特征具体公式表示如下:
F′h si=ReLU(BN(Conv1(Fh si)))
其中Conv1(·)是卷积核大小为1×1的卷积层,BN(·)是批归一化操作,ReLU(·)是激活函数;
步骤B44、首先构建上下文聚合模块中的卷积块,记该上下文聚合模块输入为两个不同尺度的特征图和/>先将特征图Fh igh进行双线性插值上采样,将其宽度和高度调整到与Flow同样的宽度和高度,再与Flow沿通道维度拼接,然后依次经过1×1卷积、BN层、ReLU激活函数得到特征图/>再将Fcat沿通道维度平均分为四个特征图/>和/>将/>和/>相加后依次经过3×3卷积、BN层、ReLU激活函数得到特征图/>将/>和/>三者相加后依次经过膨胀率为2的3×3卷积、BN层、ReLU激活函数得到特征图/> 将/>和/>三者相加后依次经过膨胀率为3的3×3卷积、BN层、ReLU激活函数得到特征图/>将/>和/>相加后依次经过膨胀率为4的3×3卷积、BN层、ReLU激活函数得到特征图然后将/>和/>沿通道维度拼接后依次经过1×1卷积、BN层、ReLU激活函数得到特征图/>最后将Fcat和F'cat相加后依次经过3×3卷积、BN层、ReLU激活函数得到上下文特征图/>具体公式表示如下:
Fcat=ReLU(BN(Conv1(Concat(Flow,Up(Fhigh)))))
8.根据权利要求3所述的基于边缘特征融合和高阶空间交互的伪装目标检测方法,其特征在于,所述步骤B5具体实现步骤如下:
步骤B5、设计基于边缘特征融合和高阶空间交互的伪装目标检测网络,包括边缘感知模块、边缘特征融合模块、边缘增强模块、高阶空间交互模块、上下文聚合模块;输入原图像,经过步骤B1的主干网络得到四个不同尺度的特征图和/> 将F1和F4输入到步骤B2中的边缘感知模块,得到边缘特征图/> 和边缘掩码/>然后构建三个步骤B3中的边缘增强模块,分别记为EEM1、EEM2和EEM3,其中EEM1的输入为步骤B1中提取的第四阶段特征图F4和步骤B2得到的边缘掩码Me,输出为边缘增强特征EEM2的输入为步骤B1中提取的第三阶段特征图F3和步骤B2得到的边缘掩码Me,输出为边缘增强特征/>EEM3的输入为步骤B1中提取的第二阶段特征图F2和步骤B2得到的边缘掩码Me,输出为边缘增强特征/>接着构建一个步骤B3中的边缘特征融合模块,输入为步骤B1中提取的第一阶段特征图F1、步骤B2得到的边缘特征图Fe和边缘掩码Me,输出为融合边缘信息的特征图/>然后,构建四个步骤B4中的高阶空间交互模块,分别记为HSIM1、HSIM2、HSIM3和HSIM4,它们的输入分别是步骤B3得到的特征图/> 和/>输出分别为/> 和/>紧接着构建三个步骤B4中的上下文聚合模块中,分别记为CAM1、CAM2和CAM3,其中CAM1的输入为特征图/>和/>输出为上下文特征图/> CAM2的输入为CAM1的输出/>和特征图/>输出为上下文特征图/>CAM3的输入为CAM2的输出/>和特征图/>输出为上下文特征图/>对于边缘掩码Me,将其进行双线性插值上采样放大4倍,得到最终边缘掩码Medge;对于上下文特征图/>经过1×1卷积将其压缩为1通道后将进行双线性插值上采样放大16倍,得到第一阶段伪装目标掩码/>对于上下文特征图/>经过1×1卷积将其压缩为1通道后将其进行双线性插值上采样放大8倍,得到第二阶段伪装目标掩码/>对于上下文特征图/>经过1×1卷积将其压缩为1通道后将其进行双线性插值上采样放大4倍,得到最终伪装目标掩码/>具体公式表示如下:
Medge=Upscale=4(Me)
其中,Upscale=4(·)是倍数为4的双线性插值上采样,Upscale=8(·)是倍数为8的双线性插值上采样,Upscale=16(·)是倍数为16的双线性插值上采样,Conv1(·)是卷积核大小为1×1、输出通道数为1的卷积层。
10.根据权利要求1所述的基于边缘特征融合和高阶空间交互的伪装目标检测方法,其特征在于,所述步骤D具体实现步骤如下:
步骤D1、将步骤A得到的训练数据集随机划分为若干个批次,每个批次包含N对图像;
步骤D3、根据损失使用反向传播方法计算网络中参数的梯度,并利用Adam优化方法更新网络参数;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310356445.2A CN116310693A (zh) | 2023-04-06 | 2023-04-06 | 基于边缘特征融合和高阶空间交互的伪装目标检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310356445.2A CN116310693A (zh) | 2023-04-06 | 2023-04-06 | 基于边缘特征融合和高阶空间交互的伪装目标检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116310693A true CN116310693A (zh) | 2023-06-23 |
Family
ID=86824077
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310356445.2A Pending CN116310693A (zh) | 2023-04-06 | 2023-04-06 | 基于边缘特征融合和高阶空间交互的伪装目标检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116310693A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116563313A (zh) * | 2023-07-11 | 2023-08-08 | 安徽大学 | 基于门控融合注意力的遥感影像大豆种植区域分割方法 |
CN117095180A (zh) * | 2023-09-01 | 2023-11-21 | 武汉互创联合科技有限公司 | 基于分期识别的胚胎发育阶段预测与质量评估方法 |
CN117593517A (zh) * | 2024-01-19 | 2024-02-23 | 南京信息工程大学 | 基于互补感知跨视图融合网络的伪装目标检测方法 |
-
2023
- 2023-04-06 CN CN202310356445.2A patent/CN116310693A/zh active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116563313A (zh) * | 2023-07-11 | 2023-08-08 | 安徽大学 | 基于门控融合注意力的遥感影像大豆种植区域分割方法 |
CN116563313B (zh) * | 2023-07-11 | 2023-09-19 | 安徽大学 | 基于门控融合注意力的遥感影像大豆种植区域分割方法 |
CN117095180A (zh) * | 2023-09-01 | 2023-11-21 | 武汉互创联合科技有限公司 | 基于分期识别的胚胎发育阶段预测与质量评估方法 |
CN117095180B (zh) * | 2023-09-01 | 2024-04-19 | 武汉互创联合科技有限公司 | 基于分期识别的胚胎发育阶段预测与质量评估方法 |
CN117593517A (zh) * | 2024-01-19 | 2024-02-23 | 南京信息工程大学 | 基于互补感知跨视图融合网络的伪装目标检测方法 |
CN117593517B (zh) * | 2024-01-19 | 2024-04-16 | 南京信息工程大学 | 基于互补感知跨视图融合网络的伪装目标检测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Alshdaifat et al. | Improved deep learning framework for fish segmentation in underwater videos | |
CN116310693A (zh) | 基于边缘特征融合和高阶空间交互的伪装目标检测方法 | |
CN112614077B (zh) | 一种基于生成对抗网络的非监督低照度图像增强方法 | |
CN111242841B (zh) | 一种基于语义分割和深度学习的图片背景风格迁移方法 | |
CN109886121A (zh) | 一种遮挡鲁棒的人脸关键点定位方法 | |
CN113158862B (zh) | 一种基于多任务的轻量级实时人脸检测方法 | |
CN113221639A (zh) | 一种基于多任务学习的代表性au区域提取的微表情识别方法 | |
CN113870124B (zh) | 基于弱监督的双网络互激励学习阴影去除方法 | |
Su et al. | Multi‐scale cross‐path concatenation residual network for Poisson denoising | |
CN113052755A (zh) | 一种基于深度学习的高分辨率图像智能化抠图方法 | |
Li et al. | Findnet: Can you find me? boundary-and-texture enhancement network for camouflaged object detection | |
Zheng et al. | Differential-evolution-based generative adversarial networks for edge detection | |
Qu et al. | Visual cross-image fusion using deep neural networks for image edge detection | |
Xu et al. | AutoSegNet: An automated neural network for image segmentation | |
Zhang et al. | Multiresolution attention extractor for small object detection | |
CN116402851A (zh) | 一种复杂背景下的红外弱小目标跟踪方法 | |
CN112801092B (zh) | 一种自然场景图像中字符元素检测方法 | |
Zhu et al. | A novel simple visual tracking algorithm based on hashing and deep learning | |
CN113781465A (zh) | 基于Grad-CAM的医学图像分割模型可视化方法 | |
CN109284765A (zh) | 基于负值特征的卷积神经网络的自然图像分类方法 | |
Yan et al. | Joint image-to-image translation with denoising using enhanced generative adversarial networks | |
CN107729992B (zh) | 一种基于反向传播的深度学习方法 | |
CN116665300A (zh) | 基于时空自适应特征融合图卷积网络的骨架动作识别方法 | |
CN115861810A (zh) | 一种基于多头注意力和自监督学习的遥感图像变化检测方法及*** | |
Wei et al. | Comic style transfer based on generative confrontation network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |