CN116805360A - 一种基于双流门控渐进优化网络的显著目标检测方法 - Google Patents

一种基于双流门控渐进优化网络的显著目标检测方法 Download PDF

Info

Publication number
CN116805360A
CN116805360A CN202311048090.7A CN202311048090A CN116805360A CN 116805360 A CN116805360 A CN 116805360A CN 202311048090 A CN202311048090 A CN 202311048090A CN 116805360 A CN116805360 A CN 116805360A
Authority
CN
China
Prior art keywords
detail
features
fusion
global
gating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311048090.7A
Other languages
English (en)
Other versions
CN116805360B (zh
Inventor
易玉根
张宁毅
黄龙军
周唯
谢更生
石艳娇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangxi Normal University
Original Assignee
Jiangxi Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangxi Normal University filed Critical Jiangxi Normal University
Priority to CN202311048090.7A priority Critical patent/CN116805360B/zh
Publication of CN116805360A publication Critical patent/CN116805360A/zh
Application granted granted Critical
Publication of CN116805360B publication Critical patent/CN116805360B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Image Analysis (AREA)

Abstract

本申请涉及一种基于双流门控渐进优化网络的显著目标检测方法,涉及图像处理和计算机视觉技术领域,包括如下步骤:采集图像数据集,获取每张图像的细节标签;对图像进行预处理;构建双流门控渐进优化网络,包括门控融合网络、交叉引导模块和特征融合模块;训练并测试双流门控渐进优化网络,采用全局损失、细节损失和融合损失进行加权求和,作为双流门控渐进优化网络的细节感知损失;采用训练好的双流门控渐进优化网络进行图像中的显著目标检测。本发明能够克服现有的显著目标检测方法中存在的特征稀释、噪声干扰和确认解释性的缺陷,以及传统边缘标签像素分布不均衡问题,能够有效提高对应显著目标对象的检测精度。

Description

一种基于双流门控渐进优化网络的显著目标检测方法
技术领域
本申请涉及图像处理和计算机视觉技术领域,具体涉及一种基于双流门控渐进优化网络的显著目标检测方法。
背景技术
现有的显著目标检测方法大多基于编码器-解码器结构,其中编码器用于生成多层特征,解码器用于合并来自不同阶段的特征,以实现显著目标的有效定位和分割。当编码器特征提取性能有限的条件下,解码器在聚合这些特征并预测显著性图中起着重要作用。当前的研究已经提出了多层特征的组合方法,例如通过多次级联的解码器架构,将相邻的两层特征投影至相同的潜在空间中,执行特征堆叠操作Concatenate和级联操作cascade;或是对原始图像构建图像金字塔,然后对金字塔每一层的输出特征执行元素相加操作Elementwise Sum并进行预测。以上两种方法均使用了多层特征的优势提取图像的低级和高级语义信息,并结合这些多尺度语义信息获得更好的检测精度。但是这些融合方式缺乏信息流控制组件,可能导致冗余信息的传递,损害显著目标检测性能,存在以下三个主要问题:
(1)特征稀释:多层特征中的一些像素或通道可能包含无效信息,导致有用信息被稀释,影响最终预测结果;
(2)噪声干扰:低层特征中含有显著对象的复杂细节和噪声信息,简单的特征聚合方法无法有效过滤噪声,导致预测图中混入非显著信息,影响显著目标的准确识别;
(3)缺乏解释性:在多层特征聚合过程中难以确定哪些像素或通道对最终输出结果至关重要,使得难以解释模型的预测行为和判断特征的重要性。
此外,预测具有模糊边界的边缘像素比预测中心像素更困难,给显著对象的分割带来了重要挑战。
发明内容
本发明的目的在于,提供一种基于双流门控渐进优化网络的显著目标检测方法,能够克服现有的显著目标检测方法中存在的特征稀释、噪声干扰和确认解释性的缺陷,还能克服传统边缘标签像素分布不均衡问题,并利用全局分支和细节分支之间的互补关系,提高对应显著目标对象的检测精度。
本发明采取的技术方案是:一种基于双流门控渐进优化网络的显著目标检测方法,包括如下步骤:
S1:采集用于显著目标检测的图像数据集,并获取图像数据集中每张图像的显著标签,通过对显著标签进行边缘信息的提取,获取每张图像的细节标签;
S2:对图像数据集中的每张图像进行预处理,并划分为训练集和测试集;
S3:构建双流门控渐进优化网络GPONet,所述双流门控渐进优化网络GPONet包括门控融合网络、交叉引导模块和特征融合模块;
所述门控融合网络用于提取N个阶段的全局特征G和细节特征E,并通过全局分支和细节分支,分别以互补方式解释性融合相邻阶段的全局特征G或细节特征E,生成融合后的全局特征G out 和融合后的细节特征E out
所述交叉引导模块用于对融合后的全局特征G out 和融合后的细节特征E out 进行通信交互和交叉引导,对融合后的全局特征G out 和融合后的细节特征E out 进行互补生成交叉引导后的全局特征和交叉引导后的细节特征/>,并根据交叉引导后的全局特征/>和交叉引导后的细节特征/>生成全局预测图和边缘预测图;
所述特征融合模块用于对全局预测图和边缘预测图进行融合,生成融合特征图,并通过对融合特征图进行预测,生成包含显著目标的显著预测图;
S4:使用训练集对所述双流门控渐进优化网络GPONet进行训练,采用全局损失来优化全局分支的预测,采用细节损失/>来优化细节分支的预测,并采用融合损失/>来优化显著预测图的预测;将全局损失/>、细节损失/>和融合损失/>进行加权求和,作为双流门控渐进优化网络GPONet的细节感知损失/>;使用测试集测试双流门控渐进优化网络GPONet的网络性能;
S5:采用训练好的双流门控渐进优化网络GPONet进行图像中的显著目标检测。
进一步地,所述步骤S2中的预处理包括通过图像变换进行数据增强、将图像的像素值进行归一化、统一图像尺寸和将图像转化为张量数据类型。
进一步地,所述门控融合网络包括编码器、全局分支和细节分支,输入图像经编码器进行特征映射,提取出N个阶段的全局特征G和细节特征E,全局分支和细节分支中均包括N-1个门控融合单元,其中,N≧2;N个阶段的全局特征G和细节特征E分别经N-1个门控融合单元处理,将N个相邻阶段的特征进行互补融合;
所述门控融合单元根据对应的低层特征和高层特征获得第一门控值和第二门控值/>,具体公式如下:
其中,F L 表示第L阶段的特征,表示第L+1阶段的特征F L+1经过上采样后得到的特征,F= {GorE},即特征F为全局特征G或细节特征Ew 1表示学习第一门控值的权重参数,w 2表示学习第二门控值的权重参数,b表示可学习的偏置参数,/>表示Sigmoid激活函数;
以第一门控值和第二门控值/>作为权重,根据第L阶段的特征F L 和第L+1阶段的特征F L+1运算得到第L阶段融合后的特征/>,具体公式如下:
其中,表示第L阶段的低层激活,/>表示第L阶段的高层激活,/>表示第L阶段的高语义信息。
进一步地,所述交叉引导模块包括N个交叉引导单元,门控融合网络输出的同一阶段的融合后的全局特征G out 和融合后的细节特征E out 分别在N个交叉引导单元通过卷积操作和连接操作生成融合特征F (E,G) ,具体表达式如下:
其中,F L(E,G) 表示第L阶段的融合特征,表示在通道维度叠加操作,/>表示第L阶段的融合后的全局特征,/>表示第L阶段的融合后的细节特征,w FG 表示从第L阶段的融合后的全局特征/>至第L阶段的融合特征F L(E,G) 的第一可学习的参数,w IG 表示从第L阶段的融合后的全局特征/>至第L阶段的融合特征F L(E,G) 的第二可学习的参数,w FE 表示从第L阶段的融合后的细节特征/>至第L阶段的融合特征F L(E,G) 的第一可学习的参数,w IE 表示从第L阶段的融合后的细节特征/>至第L阶段的融合特征F L(E,G) 的第二可学习的参数;
融合特征F (E,G) 通过卷积操作分别映射回全局分支和细节分支,并与融合后的全局特征G out 和融合后的细节特征E out 进行相加,最后执行卷积操作生成交叉引导后的全局特征和交叉引导后的细节特征/>,具体表达式如下:
其中,w OG 表示从第L阶段的融合特征F L(E,G) 映射回全局分支的第一可学习的参数,w PG 表示从第L阶段的融合特征F L(E,G) 映射回全局分支的第二可学习的参数,w OE 表示从第L阶段的融合特征F L(E,G) 映射回细节分支的第一可学习的参数,w PE 表示从第L阶段的融合特征F L(E,G) 映射回细节分支的第二可学习的参数;交叉引导后的全局特征和细节特征/>经过预测头操作生成全局预测图和边缘预测图。
进一步地,所述特征融合模块将交叉指导模块输出的交叉引导后的全局特征和交叉引导后的细节特征/>在通道维度上进行连接以生成融合特征图F fuse ,具体公式如下:
其中,L= 1,2,…,N
通过全局平均池化层和全连接层对融合特征图F fuse 进行处理,得到融合特征图的注意力分数S,具体公式如下:
其中,表示全局平均池化操作,/>表示全连接操作;
将融合特征图F fuse 与融合特征图的注意力分数S相乘进行加权,计算通道加权融合结果,并通过预测头层生成包含显著目标的显著预测图P,具体公式如下:
其中,表示预测头操作。
进一步地,所述步骤S4中,通过卷积核遍历图像细节标签的每个像素点,并根据卷积核内平均值判定该像素点是否属于重要的细节像素,判定规则如下:
其中,(xy)表示坐标值为(xy)的像素点,Detail Pixel表示细节像素,Body Pixel表示前景像素,Backgroud Pixel表示背景像素,(xy) avg 表示以坐标值为(xy)的像素点为中心,卷积核大小为半径的卷积核范围内所有像素点的像素值的平均值;
根据卷积核内平均值(xy) avg 计算像素权重矩阵,其中,像素权重矩阵/>内第x行第y列的数值/>代表坐标值为(xy)的像素点的权重值,计算公式如下:
其中,为像素权重矩阵的超参数,Detail (xy)为细节标签中坐标值为(xy)的像素点的像素值;
所述全局损失、细节损失/>和融合损失/>的表达式如下:
其中,H表示图像的高度,W表示图像的宽度,表示全局分支的全局预测图中坐标值为(xy)的像素点的预测值,/>表示显著标签中坐标值为(xy)的像素点的真实值,/>表示细节分支的边缘预测图中坐标值为(xy)的像素点的预测值,/>表示细节标签中坐标值为(xy)的像素点的真实值,/>表示包含显著目标的显著预测图P中坐标值为(xy)的像素点的预测值;将全局损失/>、细节损失/>和融合损失/>进行加权求和,得到双流门控渐进优化网络GPONet的细节感知损失/>,具体公式如下:
其中,表示全局损失的权重,/>表示细节损失的权重,/>表示融合损失的权重。
进一步地,所述步骤S4中,通过F分数指标,平均绝对误差MAE,增强对齐指标和结构相似性指标/>来检测所述双流门控渐进优化网络GPONet的网络性能,具体表达式如下:
其中,Precision表示精确率,Recall表示召回率,为非负实数,用于调整对精确率和召回率之间重要性的平衡;n表示像素数量,P i 表示第i个像素的预测值,G i 表示第i个像素的真实值,i表示像素编号,i= 1,2,…,nW表示图像的宽度,H表示图像高度,/>为对齐函数,用于计算预测目标和真实目标的对齐程度;S r 表示区域相似性值,S o 表示边界相似性值,/>表示权重参数,用于控制S r S o 的比重。
本发明的有益效果在于:
(1)本发明通过具有门控融合单元的门控融合网络,自顶向下改进低层特征,利用第一门控值和第二门控值/>对低层特征和高层特征进行互补信息的提取,并以互补方式解释性地融合相邻阶段的特征,避免冗余信息的传递造成特征稀释和噪音干扰等问题;
(2)本发明提出了一种分离相邻层特征之间的激活特征和有效特征的门控融合单元;激活特征意味着相邻两层特征的各自激活,如浅层的边缘纹理等低级特征和深层的前景识别等高级特征;有效特征意味着相邻两层特征传递过程中的有效信息,克服了冗余信息的传递;并且能够在理论上帮助理解双流门控渐进优化网络GPONet的运作过程,特征融合过程的细节可通过可视化方式展示,从而提升了双流门控渐进优化网络GPONet的可解释性;
(3)本发明利用图像数据的细节标签在双流门控渐进优化网络GPONet中的生成边缘预测图,通过融合细节的补充信息,使得预测的显著图的边缘预测质量显著提升,而无需额外的手动标注或训练;
(4)本发明通过在不同特征层之间应用交叉引导模块,加快了两个全局分支和细节分支的拟合速度,并提升了显著预测图的预测质量。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本发明实施例的方法流程图;
图2为本发明实施例中双流门控渐进优化网络GPONet的结构示意图;
图3为本发明实施例中门控融合单元的结构示意图;
图4为本发明实施例中细节标签与传统边缘标签的对比图;
图5为本发明实施例中交叉引导单元的结构示意图;
图6为本发明实施例中特征融合模块的结构结构示意图;
图7为本发明实施例中门控融合单元内部激活值的可视化结果;
图8为本发明实施例与现有显著目标检测方法检测边缘的性能比较结果图;
图9为使用传统边缘标签和细节标签执行边缘检测的结果对比图;
图10为本发明实施例和现有显著目标检测方法获得的显著预测图的结果示意图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,本发明并不限于下面公开的具体实施例的限制。
除非另作定义,此处使用的技术术语或者科学术语应当为本申请所述领域内具有一般技能的人士所理解的通常意义。本专利申请说明书以及权利要求书中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。同样, “一个”或者“一”等类似词语也不表示数量限制,而是表示存在至少一个。 “连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电性的连接,不管是直接的还是间接的。 “上”、 “下”、 “左”、 “右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也相应地改变。
如图1所示,一种基于双流门控渐进优化网络的显著目标检测方法,包括如下步骤:
S1:采集用于显著目标检测的图像数据集,并获取图像数据集中每张图像的显著标签,通过对显著标签进行边缘信息的提取,获取每张图像的细节标签。本发明实施例中采集的数图像数据来自于五个显著目标检测领域内常用的公共数据集,分别是DUTS数据集、HKU-IS数据集、DUTS-OMRON数据集、PASCAL-S数据集和ESCCD数据集。这些数据集包含显著目标和背景的多样性和丰富性,涵盖各种场景和显著目标类型。
DUTS数据集包含10553张训练图像DUTS-TR和5019张测试图像DUTS-TE。训练集和测试集都包含了显著性检测中非常具有挑战性的场景,通过50名志愿者进行了准确的像素级真值手动注释。
ECSSD数据集包含1000张真实世界复杂场景的图像,具有常见的纹理和结构以及相应的标签,由五名志愿者手动标注图像,然后取平均值作为最终结果。
PASCAL-S数据集包含850张图像,根据PASCAL-S数据集的眼动数据,对850张图像中的显著性目标进行了注释,形成了最终的数据集。
DUTS-OMRON数据集包含了5168张高质量的图像,这些图像包含一个或多个显著对象和相对复杂的背景,每张图片由五位观察员进行了眼动数据注释。
HKU-IS数据集由三名志愿者在所有7320张图像中注释了显著对象,剔除了标注不一致的图像,并保留了4447张具有低对比度或多个显著对象的具有挑战性的图像。
本发明实施例使用Canny算子从图像样本中提取边缘信息,生成边缘图像,并且只选择显著标签的内部和边缘部分作为最终的细节标签。
S2:对图像数据集中的每张图像进行预处理,并划分为训练集和测试集。在本发明实施例中,所述预处理包括通过图像变换进行数据增强、将图像的像素值进行归一化、统一图像尺寸和将图像转化为张量数据类型。
数据增强包括水平翻转、垂直翻转和随机裁剪三种方式,通过对图像进行变换和扩增来增加数据集的多样性,增加数据量,改善网络模型的泛化能力和鲁棒性。
归一化是将原始图像像素值减去均值并除以标准差,使得像素值具有零均值和单位方差,若标签像素值在0到255之间,则将标签像素值除以255,从而将图像像素值和标签像素值缩放到固定的范围。通过归一化处理可以使训练过程更加稳定,加快网络模型的收敛速度。
统一图像尺寸是为了适应网络模型的输入要求,将图像调整为相同的尺寸,确保所有图像都有相同的输入维度,方便批量处理。
将图像转化为张量数据类型的目的是将图像数据转换为网络模型所需的数据类型,使得图像数据能够被网络模型进行处理。
在完成数据预处理后,将数据集划分为按照7:3的比例划分为训练集和测试集。训练集用于训练网络模型的参数,测试集用于评估网络模型在新样本上的表现,即网络模型的性能。
S3:构建双流门控渐进优化网络GPONet,所述双流门控渐进优化网络GPONet的结构如图2所示,包括门控融合网络、交叉引导模块和特征融合模块。图中“”表示门控融合单元,“/>”表示特征图,“/>”表示预测头操作,“/>”表示通道叠加,“/>”表示元素相乘。
所述门控融合网络用于提取N个阶段的全局特征G和细节特征E,并通过全局分支和细节分支,分别以互补方式解释性融合相邻阶段的全局特征G或细节特征E,生成融合后的全局特征G out 和融合后的细节特征E out
所述门控融合网络包括编码器、全局分支和细节分支,输入图像经编码器进行特征映射,提取出N个阶段的全局特征G和细节特征E,全局分支和细节分支中均包括N-1个门控融合单元,其中,N≧2;N个阶段的全局特征G和细节特征E分别经N-1个门控融合单元处理,将N个相邻阶段的特征进行互补融合,避免冗余信息的传递。在本发明实施例中,采用的编码器为ResNet50编码器或PVTv2 编码器,能够输出四层特征,即N= 4。通过门控融合单元可激活和传递低层的细节信息,弥补低层特征的感受野有限而导致高层语义信息不足的缺陷,从而能够准确地定位和分割显著对象。
如图3所示,所述门控融合单元根据对应的低层特征和高层特征获得第一门控值和第二门控值/>,图中“/>”表示元素相乘,“/>”表示元素相加;第一门控值/>和第二门控值/>分别通过执行两个卷积操作计算,并执行Sigmoid函数以确保它们的值范围在0到1之间,具体公式如下:
; (1)
; (2)
其中,F L 表示第L阶段的特征,表示第L+1阶段的特征F L+1经过上采样后得到的特征,F= {GorE},即特征F为全局特征G或细节特征Ew 1表示学习第一门控值的权重参数,w 2表示学习第二门控值的权重参数,b表示可学习的偏置参数,/>表示Sigmoid激活函数,用于将输出值映射至[0,1]区间内。
以第一门控值和第二门控值/>作为权重来控制特征的流动,分别与低层特征和高层特征相乘,得到第L阶段的低层激活/>和第L阶段的高层激活/>,具体公式如下:
; (3)
; (4)
随后根据第一门控值和第L阶段的高层激活/>,得到第L阶段的高语义信息/>,高语义信息HSI在高层特征中丰富,但在低层特征中缺乏,只有在第L阶段的高层激活/>相对较大而第一门控值/>相对较小时,高语义信息HSI才会获得较大的值。第L阶段的高语义信息/>的具体表达式如下:
; (5)
为了避免梯度丢失问题,并能够使第L阶段的低层激活传递到后续层进行进一步融合,将第L阶段的特征F L 、第L阶段的低层激活/>和第L阶段的高语义信息组合成第L阶段融合后的特征/>,具体表达式如下:
。 (6)
所述交叉引导模块用于对融合后的全局特征G out 和融合后的细节特征E out 进行通信交互和交叉引导,对融合后的全局特征G out 和融合后的细节特征E out 进行互补生成交叉引导后的全局特征和交叉引导后的细节特征/>。由于在门控融合网络处理的过程中,全局分支和细节分支之间的互补信息在交互中并不发挥作用。通过交叉引导模块可促使全局分支和细节分支之间的互补信息相互通信,使得全局分支和细节分支之间的互补信息在显著目标检测过程中的到充分利用。交叉引导模块根据交叉引导后的全局特征/>和交叉引导后的细节特征/>生成全局预测图和边缘预测图。
所述交叉引导模块包括N个交叉引导单元,如图5所示,本发明实施例中N= 4,因此设置有四个交叉引导单元。图中“”表示通道叠加,“/>”表示元素相加,“/>”表示卷积层+标准化层+激活函数。门控融合网络输出的同一阶段的融合后的全局特征G out 和融合后的细节特征E out 分别在N个交叉引导单元通过卷积操作和连接操作生成融合特征F (E,G) ,具体表达式如下:
; (7)
其中,F L(E,G) 表示第L阶段的融合特征,表示在通道维度叠加操作,/>表示第L阶段的融合后的全局特征,/>表示第L阶段的融合后的细节特征,w FG 表示从第L阶段的融合后的全局特征/>至第L阶段的融合特征F L(E,G) 的第一可学习的参数,w IG 表示从第L阶段的融合后的全局特征/>至第L阶段的融合特征F L(E,G) 的第二可学习的参数,w FE 表示从第L阶段的融合后的细节特征/>至第L阶段的融合特征F L(E,G) 的第一可学习的参数,w IE 表示从第L阶段的融合后的细节特征/>至第L阶段的融合特征F L(E,G) 的第二可学习的参数。
融合特征F (E,G) 通过卷积操作分别映射回全局分支和细节分支,并与融合后的全局特征G out 和融合后的细节特征E out 进行相加,最后执行卷积操作生成交叉引导后的全局特征和交叉引导后的细节特征/>,具体表达式如下:
; (8)
; (9)
其中,w OG 表示从第L阶段的融合特征F L(E,G) 映射回全局分支的第一可学习的参数,w PG 表示从第L阶段的融合特征F L(E,G) 映射回全局分支的第二可学习的参数,w OE 表示从第L阶段的融合特征F L(E,G) 映射回细节分支的第一可学习的参数,w PE 表示从第L阶段的融合特征F L(E,G) 映射回细节分支的第二可学习的参数。过交叉引导后的全局特征和细节特征/>能够更好地表示当前阶段的位置信息和边缘信息。位于同一阶段的交叉引导后的全局特征和细节特征/>分别经过预测头操作生成各个阶段的全局预测图和边缘预测图。
图4中的(a)为原始图像,图4中的(b)为本发明实施例提取的细节标签,图4中的(c)为传统的边缘标签。由于复杂的纹理和周围像素的干扰,现有方法大多如图4中的(c)所示,生成的传统标签难以检测边缘像素。因此本发明实施例通过步骤S1,使用Canny算子从图像样本中提取边缘信息,生成边缘图像,并得到如图4中的(b)所示的细节标签,所述细节标签无需额外的手动标注或训练,不仅提取了显著对象的边缘,还包含了显著对象内部的细节纹理,有利于生成更加准确的边缘预测图。
所述特征融合模块用于对全局预测图和边缘预测图进行融合,生成融合特征图,并通过对融合特征图进行预测,生成包含显著目标的显著预测图。
所述特征融合模块的结构如图6所示,图中“”表示元素相乘。所述特征融合模块将交叉引导模块输出的各个阶段的全局预测图和边缘预测图,通过交叉引导后的全局特征/>和交叉引导后的细节特征/>在通道维度上进行连接操作,生成融合特征图F fuse ,具体公式如下:
; (10)
其中,L= 1,2,…,N。由于本发明实施例中N= 4,因此公式(10)可表述为公式(11):
。 (11)
通过全局平均池化层和全连接层对融合特征图F fuse 进行处理,得到融合特征图的注意力分数S,融合特征图的注意力分数S表示融合特征图对最终显著性预测的重要性或贡献度,具体公式如下:
; (12)
其中,表示全局平均池化操作,/>表示全连接操作。
将融合特征图F fuse 与融合特征图的注意力分数S相乘进行加权,计算通道加权融合结果,并通过预测头层生成包含显著目标的显著预测图P,具体公式如下:
; (13)
其中,表示预测头操作。
S4:使用训练集对所述双流门控渐进优化网络GPONet进行训练,采用全局损失来优化全局分支的预测,采用细节损失/>来优化细节分支的预测,并采用融合损失/>来优化显著预测图的预测;将全局损失/>、细节损失/>和融合损失/>进行加权求和,作为双流门控渐进优化网络GPONet的细节感知损失/>;使用测试集测试双流门控渐进优化网络GPONet的网络性能。具体方法为:/>
在训练开始时,将所有图像调整为352×352的大小,并对图像进行随机裁剪和翻转操作。为了消除不同编码器对预测结果性能的干扰,本发明实施例选用两个常用的编码器ResNet50和PVTv2,来提取图像的全局特征和细节特征;并使用Adam优化器进行训练,使用默认参数betas值为(0.9,0.999),eps值为1e-8,weight_decay值为0,并采用学习率的热身策略,学习率从1e-7开始,在一个迭代周期后达到1e-4的峰值,然后逐渐降低为0。在测试过程中,将大小为352×352的输出图像使用双线性插值恢复到原始大小。
本发明实施例通过细节感知损失来反映像素之间的预测难度差异。通过一个3×3大小卷积核遍历图像细节标签的每个像素点,并根据卷积核内平均值判定该像素点是否属于重要的细节像素,判定规则如下:
; (14)
其中,(xy)表示坐标值为(xy)的像素点,Detail Pixel表示细节像素,Body Pixel表示前景像素,Backgroud Pixel表示背景像素,(xy) avg 表示以坐标值为(xy)的像素点为中心,卷积核大小为半径的卷积核范围内所有像素点的像素值的平均值。
根据3×3大小卷积核内平均值(xy) avg 计算像素权重矩阵,其中,像素权重矩阵/>内第x行第y列的数值/>代表坐标值为(xy)的像素点的权重值,计算公式如下:
; (15)
其中,为像素权重矩阵的超参数,在本发明实施例中取0.5,Detail (xy)为细节标签的位置坐标值。
所述全局损失、细节损失/>和融合损失/>的表达式如下:
; (16)
; (17)
; (18)
其中,H表示图像的高度,W表示图像的宽度,表示全局分支的全局预测图中坐标值为(xy)的像素点的预测值,/>表示显著标签中坐标值为(xy)的像素点的真实值,/>表示细节分支的边缘预测图中坐标值为(xy)的像素点的预测值,/>表示细节标签中坐标值为(xy)的像素点的真实值,/>表示包含显著目标的显著预测图P中坐标值为(xy)的像素点的预测值。
将全局损失、细节损失/>和融合损失/>进行加权求和,得到双流门控渐进优化网络GPONet的细节感知损失/>,具体公式如下:
; (19)
; (20)
其中,表示全局损失的权重,/>表示细节损失的权重,/>表示融合损失的权重。
所述步骤S4中,通过F分数指标,平均绝对误差MAE,增强对齐指标/>和结构相似性指标/>来检测所述双流门控渐进优化网络GPONet的网络性能,具体表达式如下:
; (21)
; (22)
; (23)
; (24)
其中,Precision表示精确率,Recall表示召回率,为非负实数,用于调整对精确率和召回率之间重要性的平衡,在本发明实施例中取0.3;n表示像素数量;P i 表示第i个像素的预测值,G i 表示第i个像素的真实值,i表示像素编号,i= 1,2,…,nW表示图像的宽度,H表示图像高度,/>为对齐函数,用于计算预测目标和真实目标的对齐程度;S r 表示区域相似性值,S o 表示边界相似性值,/>表示权重参数,用于控制S r S o 的比重。
S5:采用训练好的双流门控渐进优化网络GPONet进行图像中的显著目标检测。
下面结合具体实验数据说明本发明实施例的技术效果:
为了验证本发明实施例中门控融合网络和交叉引导单元的有效性,将本发明实施例所述的双流门控渐进优化网络GPONet与常用的解码器模块FPN进行比较,实验结果如表1所示。本发明实施例在DUTS数据集和ESCCD数据集上的三个评估指标均优于解码器模块FPN,其中结构相似性表明本发明实施例预测的显著对象具有更好的结构一致性,而F分数指标和平均绝对误差MAE表明本发明实施例能够以更高的准确性预测显著性地图。此外,根据表1可知,添加交叉引导单元进一步提升了网络模型的预测能力。FPN解码器与交叉引导单元的组合结果与单个门控融合网络相当,而门控融合网络和交叉引导单元的组合实现了最佳的预测性能。/>
表1 FPN解码器、门控融合网络和交叉引导单元的组合模块在DUTS-TE数据集和ECSSD数据集上的测试结果对比表
为了展示门控融合单元的特征选择性传递流程,选择每个像素的所有通道中最高的激活值,创建单通道激活图,以热力图的形式展示,得到如图7所示的实验结果。图7中的(a)为浅层的像素激活图,图7中的(b)为深层的像素激活图,图7中的(c)为浅层缺失但深层富含的像素激活图,图7中的(d)为门控融合单元的输出。图7中的(a)显示了低层门控值的注意区域,其中包含了详细但杂乱的信息,图7中的(b)显示了高层门控值的注意区域,表明显著对象的大致位置,图7中的(c)显示了在图7中的(a)中缺乏但在图7中的(b)中丰富的高层语义信息;图7中的(d)显示了经门控融合单元处理后的融合特征。图7中从左到右,显示出门控融合单元在相邻阶段之间整合互补信息;从上到下,可以看到高层特征逐渐丰富细节,从而增强显著对象的边界。
为了验证本发明实施例中的细节标签相对于传统边缘标签的优越性,使用细节标签和传统边缘标签在相同的模型架构下训练了双流门控渐进优化网络GPONet,后文分别称为GPON_dt网络模型和GPON_eg网络模型,并选择RCSB网络模型和ITSD网络模型作为额外的比较对象。由于ITSD方法缺乏专门的边缘检测分支,可能导致边缘检测结果较差,但为了比较不同双流网络模型对边缘检测任务的重视程度,将ITSD方法作为对照组。使用四个网络模型进行边缘检测任务,并进行比较实验,可得到如图8和表2所示的实验结果。图8中的(a)为原始图像,图8中的(b)为真实显著边缘图,图8中的(c)为采用细节标签训练双流门控渐进优化网络GPONet得到的GPON_dt网络模型的显著边缘检测结果,图8中的(d)为采用传统边缘标签训练双流门控渐进优化网络GPONet得到的GPON_eg网络模型的显著边缘检测结果,图8中的(e)为现有的RCSB方法的显著边缘检测结果,图8中的(f)为现有的ITSD方法的显著边缘检测结果。
如图8所示,GPON_dt网络模型和GPON_eg网络模型在显著边缘像素分割任务中均优于其他两个模型,但GPON_eg网络模型通常受到其他纹理或模糊边界像素的干扰,导致细节像素、边缘像素和其他非显著干扰像素的分割性能较差。而GPON_dt网络模型通过标签提供一致的内部细节,可以输出与显著对象一致的边缘结构,从而消除其他非显著像素的干扰,并引导对细节像素的精确分割。表2中记F分数指标的最大值为maxF,平均值为meanF。从表2中够可以看出,GPON_dt网络模型的平均值meanF有竞争力且具有最高的最大值maxF。
表2 不同边缘检测方法在DUTS-TE数据集上的定量分析结果对比表
除此之外,实验时还从DUTS测试集中选择一组边缘检测平均绝对误差MAE小于平均值的样本,以展示细节标签在困难样本上的较高检测准确性,这个样本包含了DUTS-TEST数据集的近一半。使用GPON_dt网络模型和GPON_eg网络模型重新评估这些具有挑战性样本,得到的检测结果如图9所示。图9中的(a)为原始图像,图9中的(b)为原始图像对应的真实显著图,图9中的(c)为GPON_eg网络模型的检测结果,图9中的(d)为GPON_dt网络模型的检测结果。图9中样本的边缘检测结果表明,使用细节标签训练的GPON_dt网络模型能够通过内部纹理结构识别隐藏的显著对象,从而使模型更加关注显著对象的整体结构。相反,使用边缘标签训练的GPON_eg网络模型更容易受到颜色或纹理变化的影响,导致对象分割不完整。这意味着,细节标签可以更好地反映显著对象的整体特征,而边缘标签的准确性受到颜色差异的影响,说明了细节标签在图像边缘检测中的优越性。GPONet_R网络模型和GPONet_T网络模型是分别以残差网络ResNet和注意力模型Transformer为编码器训练双流门控渐进优化网络GPONet得到的网络模型。根据编码器的不同,将比较实验分为两组,即将GPONet_R网络模型和GPONet_T网络模型分别与常用的显著目标检测方法,在DUTS数据集、HKU-IS数据集、PASCAL-S数据集、ESCCD数据集和DUTS-OMRON数据集上进行性能比较,得到如表3~表7所示的实验结果。在表3~表7中,F分数指标、增强对齐指标/>和结构相似性指标/>的值越大,说明网络模型的性能越好,平均绝对误差MAE的值越小,说明网络模型的性能越好。
表3:本发明实施例与常用的显著目标检测方法在DUTS-TE数据集上的性能比较
表4:本发明实施例与常用的显著目标检测方法在HKU-IS数据集上的性能比较
表5:本发明实施例与常用的显著目标检测方法在PASCAL-S数据集上的性能比较
表6:本发明实施例与常用的显著目标检测方法在ECSSD数据集上的性能比较
表7:本发明实施例与常用的显著目标检测方法在DUT-OMRON数据集上的性能比较
根据表3~表7可知,GPONet_T网络模型在DUTS-TE数据集、PASCAL-S数据集和ECSSD数据集在F分数指标和结构相似性指标/>上均取得了最佳得分,在DUTS-TE数据集和PASCAL-S数据集中仅在平均绝对误差MAE和增强对齐指标上与第二名有较小的差距。在以残差网络为编码器的网络模型中,GPONet_R网络模型在结构相似性指标/>上与现有最优模型相当,表明我们提出的模型具有良好的结构一致性。在以注意力模型Transformer为编码器的网络模型中,GPONet_T网络模型在DUTS数据集和PASCAL-S数据集上的平均绝对误差MAE和增强对齐指标/>仅次于PGNet网络模型。这是由于PGNet网络模型使用了4k-8k分辨率的训练图像,总体来说,GPONet_T网络模型在其他数据集的各项指标上均优于现有模型,并且明显超过VST网络模型。
图10为本发明实施例和现有显著目标检测方法获得的显著预测图的结果示意图,图10中的(a)为原始图像,图10中的(b)为原始图像对应的真实显著图,图10中的(c)为本发明实施例所述的双流门控渐进优化网络GPONet的显著预测图,图10中的(d)为PGNet网络模型的显著预测图,图10中的(e)为VST网络模型的显著预测图。如图10所示,本发明实施例能够准确地定位和分割结构一致的显著对象(例如鸟类),而其他方法受非显著信息(例如鸟巢)或轮廓不清晰(例如鸟翅膀)的影响,导致分割结果并不精确。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (7)

1.一种基于双流门控渐进优化网络的显著目标检测方法,其特征在于,包括如下步骤:
S1:采集用于显著目标检测的图像数据集,并获取图像数据集中每张图像的显著标签,通过对显著标签进行边缘信息的提取,获取每张图像的细节标签;
S2:对图像数据集中的每张图像进行预处理,并划分为训练集和测试集;
S3:构建双流门控渐进优化网络GPONet,所述双流门控渐进优化网络GPONet包括门控融合网络、交叉引导模块和特征融合模块;
所述门控融合网络用于提取N个阶段的全局特征G和细节特征E,并通过全局分支和细节分支,分别以互补方式解释性融合相邻阶段的全局特征G或细节特征E,生成融合后的全局特征G out 和融合后的细节特征E out
所述交叉引导模块用于对融合后的全局特征G out 和融合后的细节特征E out 进行通信交互和交叉引导,对融合后的全局特征G out 和融合后的细节特征E out 进行互补生成交叉引导后的全局特征 和交叉引导后的细节特征/>,并根据交叉引导后的全局特征/>和交叉引导后的细节特征/>生成全局预测图和边缘预测图;
所述特征融合模块用于对全局预测图和边缘预测图进行融合,生成融合特征图,并通过对融合特征图进行预测,生成包含显著目标的显著预测图;
S4:使用训练集对所述双流门控渐进优化网络GPONet进行训练,采用全局损失来优化全局分支的预测,采用细节损失/>来优化细节分支的预测,并采用融合损失/>来优化显著预测图的预测;将全局损失/>、细节损失/>和融合损失/>进行加权求和,作为双流门控渐进优化网络GPONet的细节感知损失/>;使用测试集测试双流门控渐进优化网络GPONet的网络性能;
S5:采用训练好的双流门控渐进优化网络GPONet进行图像中的显著目标检测。
2.根据权利要求1所述的一种基于双流门控渐进优化网络的显著目标检测方法,其特征在于,所述步骤S2中的预处理包括通过图像变换进行数据增强、将图像的像素值进行归一化、统一图像尺寸和将图像转化为张量数据类型。
3.根据权利要求2所述的一种基于双流门控渐进优化网络的显著目标检测方法,其特征在于,所述门控融合网络包括编码器、全局分支和细节分支,输入图像经编码器进行特征映射,提取出N个阶段的全局特征G和细节特征E,全局分支和细节分支中均包括N-1个门控融合单元,其中,N≧2;N个阶段的全局特征G和细节特征E分别经N-1个门控融合单元处理,将N个相邻阶段的特征进行互补融合;
所述门控融合单元根据对应的低层特征和高层特征获得第一门控值和第二门控值,具体公式如下:
其中,F L 表示第L阶段的特征,表示第L+1阶段的特征F L+1经过上采样后得到的特征,F = {G or E},即特征F为全局特征G或细节特征Ew 1表示学习第一门控值的权重参数,w 2表示学习第二门控值的权重参数,b表示可学习的偏置参数,/>表示Sigmoid激活函数;
以第一门控值和第二门控值/>作为权重,根据第L阶段的特征F L 和第L+1阶段的特征F L+1运算得到第L阶段融合后的特征/>,具体公式如下:
其中,表示第L阶段的低层激活,/>表示第L阶段的高层激活,/>表示第L阶段的高语义信息。
4.根据权利要求3所述的一种基于双流门控渐进优化网络的显著目标检测方法,其特征在于,所述交叉引导模块包括N个交叉引导单元,门控融合网络输出的同一阶段的融合后的全局特征G out 和融合后的细节特征E out 分别在N个交叉引导单元通过卷积操作和连接操作生成融合特征F (E,G) ,具体表达式如下:
其中,F L(E,G) 表示第L阶段的融合特征,表示在通道维度叠加操作,/>表示第L阶段的融合后的全局特征,/>表示第L阶段的融合后的细节特征,w FG 表示从第L阶段的融合后的全局特征/>至第L阶段的融合特征F L(E,G) 的第一可学习的参数,w IG 表示从第L阶段的融合后的全局特征/>至第L阶段的融合特征F L(E,G) 的第二可学习的参数,w FE 表示从第L阶段的融合后的细节特征/>至第L阶段的融合特征F L(E,G) 的第一可学习的参数,w IE 表示从第L阶段的融合后的细节特征/>至第L阶段的融合特征F L(E,G) 的第二可学习的参数;
融合特征F (E,G) 通过卷积操作分别映射回全局分支和细节分支,并与融合后的全局特征G out 和融合后的细节特征E out 进行相加,最后执行卷积操作生成交叉引导后的全局特征和交叉引导后的细节特征/>,具体表达式如下:
其中,w OG 表示从第L阶段的融合特征F L(E,G) 映射回全局分支的第一可学习的参数,w PG 表示从第L阶段的融合特征F L(E,G) 映射回全局分支的第二可学习的参数,w OE 表示从第L阶段的融合特征F L(E,G) 映射回细节分支的第一可学习的参数,w PE 表示从第L阶段的融合特征F L(E,G) 映射回细节分支的第二可学习的参数;交叉引导后的全局特征和细节特征/>经过预测头操作生成全局预测图和边缘预测图。
5.根据权利要求4所述的一种基于双流门控渐进优化网络的显著目标检测方法,其特征在于,所述特征融合模块将交叉指导模块输出的交叉引导后的全局特征和交叉引导后的细节特征/>在通道维度上进行连接以生成融合特征图F fuse ,具体公式如下:
其中,L = 1,2,…,N
通过全局平均池化层和全连接层对融合特征图F fuse 进行处理,得到融合特征图的注意力分数S,具体公式如下:
其中,表示全局平均池化操作,/>表示全连接操作;
将融合特征图F fuse 与融合特征图的注意力分数S相乘进行加权,计算通道加权融合结果,并通过预测头层生成包含显著目标的显著预测图P,具体公式如下:
其中,表示预测头操作。
6.根据权利要求5所述的一种基于双流门控渐进优化网络的显著目标检测方法,其特征在于,所述步骤S4中,通过卷积核遍历图像细节标签的每个像素点,并根据卷积核内平均值判定该像素点是否属于重要的细节像素,判定规则如下:
其中,(xy)表示坐标值为(xy)的像素点,Detail Pixel表示细节像素,Body Pixel表示前景像素,Backgroud Pixel表示背景像素,(xy) avg 表示以坐标值为(xy)的像素点为中心,卷积核大小为半径的卷积核范围内所有像素点的像素值的平均值;
根据卷积核内平均值(xy) avg 计算像素权重矩阵,其中,像素权重矩阵/>内第x行第y列的数值/>代表坐标值为(xy)的像素点的权重值,计算公式如下:
其中,为像素权重矩阵的超参数,Detail (xy)为细节标签中坐标值为(xy)的像素点的像素值;
所述全局损失、细节损失/>和融合损失/>的表达式如下:
其中,H表示图像的高度,W表示图像的宽度,表示全局分支的全局预测图中坐标值为(xy)的像素点的预测值,/>表示显著标签中坐标值为(xy)的像素点的真实值,表示细节分支的边缘预测图中坐标值为(xy)的像素点的预测值,/>表示细节标签中坐标值为(xy)的像素点的真实值,/>表示包含显著目标的显著预测图P中坐标值为(xy)的像素点的预测值;将全局损失/>、细节损失/>和融合损失/>进行加权求和,得到双流门控渐进优化网络GPONet的细节感知损失/>,具体公式如下:
其中,表示全局损失的权重,/>表示细节损失的权重,/>表示融合损失的权重。
7.根据权利要求6所述的一种基于双流门控渐进优化网络的显著目标检测方法,其特征在于,所述步骤S4中,通过F分数指标,平均绝对误差MAE,增强对齐指标/>和结构相似性指标/>来检测所述双流门控渐进优化网络GPONet的网络性能,具体表达式如下:
其中,Precision表示精确率,Recall表示召回率,为非负实数,用于调整对精确率和召回率之间重要性的平衡;n表示像素数量,P i 表示第i个像素的预测值,G i 表示第i个像素的真实值,i表示像素编号,i = 1,2,…,nW表示图像的宽度,H表示图像高度,/>为对齐函数,用于计算预测目标和真实目标的对齐程度;S r 表示区域相似性值,S o 表示边界相似性值,/>表示权重参数,用于控制S r S o 的比重。
CN202311048090.7A 2023-08-21 2023-08-21 一种基于双流门控渐进优化网络的显著目标检测方法 Active CN116805360B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311048090.7A CN116805360B (zh) 2023-08-21 2023-08-21 一种基于双流门控渐进优化网络的显著目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311048090.7A CN116805360B (zh) 2023-08-21 2023-08-21 一种基于双流门控渐进优化网络的显著目标检测方法

Publications (2)

Publication Number Publication Date
CN116805360A true CN116805360A (zh) 2023-09-26
CN116805360B CN116805360B (zh) 2023-12-05

Family

ID=88080836

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311048090.7A Active CN116805360B (zh) 2023-08-21 2023-08-21 一种基于双流门控渐进优化网络的显著目标检测方法

Country Status (1)

Country Link
CN (1) CN116805360B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117407772A (zh) * 2023-12-13 2024-01-16 江西师范大学 监督对比学习网络模型训练多元时序数据分类方法及***

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10503966B1 (en) * 2018-10-11 2019-12-10 Tindei Network Technology (Shanghai) Co., Ltd. Binocular pedestrian detection system having dual-stream deep learning neural network and the methods of using the same
CN113240613A (zh) * 2021-06-07 2021-08-10 北京航空航天大学 一种基于边缘信息重建的图像修复方法
CN113269787A (zh) * 2021-05-20 2021-08-17 浙江科技学院 一种基于门控融合的遥感图像语义分割方法
US11222217B1 (en) * 2020-08-14 2022-01-11 Tsinghua University Detection method using fusion network based on attention mechanism, and terminal device
CN114140622A (zh) * 2021-12-06 2022-03-04 许昌三维测绘有限公司 一种基于双分支网络的实时显著性检测图像方法
CN114445442A (zh) * 2022-01-28 2022-05-06 杭州电子科技大学 基于非对称交叉融合的多光谱图像语义分割方法
US20230086552A1 (en) * 2021-04-02 2023-03-23 Tencent Technology (Shenzhen) Company Limited Image processing method and apparatus, device, storage medium, and computer program product
US20230237785A1 (en) * 2022-01-21 2023-07-27 NavInfo Europe B.V. Deep Learning Based Multi-Sensor Detection System for Executing a Method to Process Images from a Visual Sensor and from a Thermal Sensor for Detection of Objects in Said Images
CN116543228A (zh) * 2023-05-22 2023-08-04 天津大学 一种基于单阶段网络的红外图像车辆检测方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10503966B1 (en) * 2018-10-11 2019-12-10 Tindei Network Technology (Shanghai) Co., Ltd. Binocular pedestrian detection system having dual-stream deep learning neural network and the methods of using the same
US11222217B1 (en) * 2020-08-14 2022-01-11 Tsinghua University Detection method using fusion network based on attention mechanism, and terminal device
US20230086552A1 (en) * 2021-04-02 2023-03-23 Tencent Technology (Shenzhen) Company Limited Image processing method and apparatus, device, storage medium, and computer program product
CN113269787A (zh) * 2021-05-20 2021-08-17 浙江科技学院 一种基于门控融合的遥感图像语义分割方法
CN113240613A (zh) * 2021-06-07 2021-08-10 北京航空航天大学 一种基于边缘信息重建的图像修复方法
CN114140622A (zh) * 2021-12-06 2022-03-04 许昌三维测绘有限公司 一种基于双分支网络的实时显著性检测图像方法
US20230237785A1 (en) * 2022-01-21 2023-07-27 NavInfo Europe B.V. Deep Learning Based Multi-Sensor Detection System for Executing a Method to Process Images from a Visual Sensor and from a Thermal Sensor for Detection of Objects in Said Images
CN114445442A (zh) * 2022-01-28 2022-05-06 杭州电子科技大学 基于非对称交叉融合的多光谱图像语义分割方法
CN116543228A (zh) * 2023-05-22 2023-08-04 天津大学 一种基于单阶段网络的红外图像车辆检测方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
HARSHALA GAMMULLE: "Two Stream LSTM: A Deep Fusion Framework for Human Action Recognition", 2017 IEEE WINTER CONFERENCE ON APPLICATIONS OF COMPUTER VISION *
JIAGANG ZHU等: "Learning Gating ConvNet for Two-Stream based Methods in Action Recognition", ARXIV *
YUAN GAO等: "Deep Gate Recurrent Neural Network", ARXIV *
史攀;赵子健;: "深度学习在微创手术视频分析中的应用研究综述", 中国生物医学工程学报, no. 04 *
周鹏程;龚声蓉;钟珊;包宗铭;戴兴华;: "基于深度特征融合的图像语义分割", 计算机科学, no. 02 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117407772A (zh) * 2023-12-13 2024-01-16 江西师范大学 监督对比学习网络模型训练多元时序数据分类方法及***
CN117407772B (zh) * 2023-12-13 2024-03-26 江西师范大学 监督对比学习网络模型训练多元时序数据分类方法及***

Also Published As

Publication number Publication date
CN116805360B (zh) 2023-12-05

Similar Documents

Publication Publication Date Title
CN110428432B (zh) 结肠腺体图像自动分割的深度神经网络算法
CN112966684B (zh) 一种注意力机制下的协同学习文字识别方法
CN111612008B (zh) 基于卷积网络的图像分割方法
CN110059741A (zh) 基于语义胶囊融合网络的图像识别方法
CN110827312B (zh) 一种基于协同视觉注意力神经网络的学习方法
CN110795982A (zh) 一种基于人体姿态分析的表观视线估计方法
CN113609896A (zh) 基于对偶相关注意力的对象级遥感变化检测方法及***
CN111738344A (zh) 一种基于多尺度融合的快速目标检测方法
CN111797841B (zh) 一种基于深度残差网络的视觉显著性检测方法
CN116805360B (zh) 一种基于双流门控渐进优化网络的显著目标检测方法
CN110222780A (zh) 物体检测方法、装置、设备和存储介质
CN113297961B (zh) 一种基于边界特征融合孪生循环神经网络的目标跟踪方法
CN113297988A (zh) 一种基于域迁移和深度补全的物体姿态估计方法
CN114511710A (zh) 一种基于卷积神经网络的图像目标检测方法
Ren et al. End-to-end weakly-supervised single-stage multiple 3D hand mesh reconstruction from a single RGB image
CN109658523A (zh) 利用ar增强现实应用实现车辆各功能使用说明的方法
CN117292117A (zh) 一种基于注意力机制的小目标检测方法
CN113076806A (zh) 一种结构增强的半监督在线地图生成方法
CN117253277A (zh) 真实和合成数据联合进行复杂环境人脸关键点检测的方法
CN112446292A (zh) 一种2d图像显著目标检测方法及***
Pei et al. FGO-Net: Feature and Gaussian Optimization Network for visual saliency prediction
CN114882372A (zh) 一种目标检测的方法及设备
CN115410089A (zh) 自适应局部上下文嵌入的光学遥感小尺度目标检测方法
CN115019139A (zh) 一种基于双流网络的光场显著目标检测方法
CN114693951A (zh) 一种基于全局上下文信息探索的rgb-d显著性目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant