CN111275076A - 基于特征选择和特征融合的图像显著性检测方法 - Google Patents

基于特征选择和特征融合的图像显著性检测方法 Download PDF

Info

Publication number
CN111275076A
CN111275076A CN202010030505.8A CN202010030505A CN111275076A CN 111275076 A CN111275076 A CN 111275076A CN 202010030505 A CN202010030505 A CN 202010030505A CN 111275076 A CN111275076 A CN 111275076A
Authority
CN
China
Prior art keywords
feature
conv
channel
layer
new
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010030505.8A
Other languages
English (en)
Other versions
CN111275076B (zh
Inventor
袁夏
居思刚
赵春霞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN202010030505.8A priority Critical patent/CN111275076B/zh
Publication of CN111275076A publication Critical patent/CN111275076A/zh
Application granted granted Critical
Publication of CN111275076B publication Critical patent/CN111275076B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于特征选择和特征融合的图像显著性检测方法,包括以下步骤:对输入图像进行特征提取,并将特征添加至特征金字塔集合中;对特征金字塔集合进行特征选择,获得新的特征金字塔集合;以自底向上的方式,对新的特征金字塔集合中的特征进行特征融合,获得混合特征金字塔集合;利用混合特征金字塔集合中的特征对显著性预测网络模型进行训练,利用训练后的模型对待检测图像进行显著性检测。本发明采用注意力模型对图像的特征进行特征选择,增强了与图像目标相关的特征,使得特征更加有效,并采用自底向上的特征融合结构,将底层的细节特征和高层的语义特征进行了有效融合,大大提升了特征的表征能力,比一般显著性模型网络的检测准确率高。

Description

基于特征选择和特征融合的图像显著性检测方法
技术领域
本发明属于图像显著性检测领域,特别涉及一种基于特征选择和特征融合的图像显著性检测方法。
背景技术
图像显著性就是图像中引起注意的对象或者物体,在图像或者视频中显著性检测的结果往往是图像或者视频中的对象,在神经学科中显著性检测被描述为注意力机制,目的是聚焦或者缩小看到的对象场景的重要部分,显著性检测可以自动处理图像中的对象表示。显著性检测可以提高对象检测、图像分割等算法的高效性。
目前最有效的显著性检测方法是基于全卷积神经网络实现的。全卷积神经网络将多个卷积层和池化层叠加起来,逐步增加感受野,生成高级语义信息,在显著性检测中起着至关重要的作用,然而池化层缩小了特征映射的大小,并恶化了突出对象的边界。有些网络用手工设计特征来保护突出物体的边界,提取手工特征来计算超像素的显著值,通过手工艺特征将图像划分为区域。在生成显著性图时,手工艺特征和卷积神经网络高级特征是互补的,但这些方法都是分开提取特征,难以有效地融合单独提取的互补特征。此外,手工工艺特征提取过程非常耗时。
除了手工工艺特征外,一些研究还发现网络不同层的特征也是互补的,并集成了用于显著性检测的多尺度特征。更具体地,深层的特征通常包含全局上下文感知信息,其适合于正确地定位显著区域。浅层的特征包含空间结构细节,适合于定位边界。这些方法融合了不同的尺度特征但没有考虑它们对显著性的不同贡献,这使得显著性检测结果不佳。为了克服这些问题,现有技术提出将关注模型和门函数引入显著性检测网络,但是,该种方法忽略了高级和低级特征的不同特征,可能会影响有效特征的提取,进而降低显著性检测的精度。
发明内容
本发明的目的在于提供一种基于特征选择和特征融合的图像显著性检测方法,能较好的对图像进行特征表征和显著性预测。
实现本发明目的的技术解决方案为:一种基于特征选择和特征融合的图像显著性检测方法,所述方法包括以下步骤:
步骤1,对输入图像进行特征提取,并将所有特征添加至特征金字塔集合中;
步骤2,对所述特征金字塔集合进行特征选择,获得新的特征金字塔集合;
步骤3,以自底向上的方式,对所述新的特征金字塔集合中的特征进行特征融合,获得混合特征金字塔集合;
步骤4,利用所述混合特征金字塔集合中的特征对显著性预测网络模型进行训练,利用训练后的显著性预测网络模型对待检测图像进行显著性检测。
进一步地,步骤1中所述对输入图像进行特征提取,具体采用卷积神经网络ResNext对输入图像进行特征提取,具体过程包括:
假设卷积神经网络ResNext包括的五部分卷积块分别为conv1、conv2、conv3、conv4、conv5
步骤1-1,输入图像依次进入所述五部分卷积块,进行前向迭代,迭代公式为:
fi+1=convj(fi,Wj),j∈[1,5],i∈[-1,3]
式中,i=-1时,f-1为待检测图像,i分别为-1,0,1,2,3时,fi+1分别表示卷积块conv1、conv2、conv3、conv4、conv5的输出结果,Wj为卷积块convj的参数;
步骤1-2,将每一部分卷积块输出的特征图添加至输出集合形成特征金字塔集合{f0,f1,f2,f3,f4}。
进一步地,步骤2中对所述特征金字塔集合进行特征选择,具体采用空间注意力和通道注意力机制进行特征选择,具体过程包括:
步骤2-1,利用空间注意力对特征金字塔集合中的底层特征图f0进行特征选择,获得新的底层特征图
Figure BDA0002364138390000021
步骤2-2,利用通道注意力对特征金字塔集合中的中层特征图f2进行特征选择,获得新的中层特征图
Figure BDA0002364138390000022
由上获得新的特征金字塔集合
Figure BDA0002364138390000023
进一步地,步骤2-1所述利用空间注意力对特征金字塔集合中的底层特征图f0进行特征选择,获得新的底层特征图
Figure BDA0002364138390000024
具体包括:
定义底层特征图f0
Figure BDA0002364138390000031
w、h、c分别表示特征图的宽、高和通道数;构建空间注意力模块,该模块包括两个子卷积块,分别记为conv11、conv22
步骤2-1-1,将fl依次放入conv11、conv22子卷积块,分别输出特征图C1、C2
C1=conv11(fl,W11)
C2=conv22(fl,W22)
式中,W11、W22分别为conv11、conv22子卷积块的参数;
步骤2-1-2,对conv11、conv22子卷积块的输出结果C1、C2进行逐元素相加,并利用sigmoid函数将相加的结果值映射到[0,1],获得空间注意力的权重SA,具体公式为:
SA=σ(C1+C2)
式中,σ表示sigmoid函数;
步骤2-1-3,利用所述空间注意力的权重SA对底层特征图f0进行特征选择获得新的底层特征图
Figure BDA0002364138390000032
Figure BDA0002364138390000033
所用公式为:
Figure BDA0002364138390000034
进一步地,所述子卷积块conv11、conv22均包括两个卷积层,其中一层的卷积核数量为32,卷积核大小为3x3,另一层的卷积核数量为64,卷积核大小为3x3。
进一步地,步骤2-2所述利用通道注意力对特征金字塔集合中的中层特征图f2进行特征选择,获得新的中层特征图
Figure BDA0002364138390000035
具体包括:
定义中层特征图f2
Figure BDA0002364138390000036
步骤2-2-1,将fm展开为一个集合:
fm={f1 m,f2 m,......,fC m}
其中,fi m为fm中的第i个通道切片特征,
Figure BDA0002364138390000037
i=1,2,…,C,C为特征图fm的通道数;
步骤2-2-2,对每个通道切片特征fi m进行全局池化,获得一个通道级向量
Figure BDA0002364138390000038
步骤2-2-3,利用两层连续的全连接层和非线性激活层学习所述通道级向量,获得通道级注意力向量,并利用sigmoid函数将所述通道级注意力向量映射到[0,1],获得通道注意力的权重CA,所用公式为:
CA=F(vm,W)=σ(fc2(δ(fc1(vm,W1)),W2))
式中,W1、W2分别为全连接层fc1、fc2的参数,δ为非线性激活函数,σ为sigmoid函数;
步骤2-2-4,利用所述通道注意力的权重CA对中层特征图f2重新分配通道权重,获得新的中层特征图
Figure BDA0002364138390000041
Figure BDA0002364138390000042
所用公式为:
Figure BDA0002364138390000043
进一步地,步骤3所述以自底向上的方式,对所述新的特征金字塔集合中的特征进行特征融合,获得融合后的特征金字塔集合,具体包括:
步骤3-1,将除新的底层特征图
Figure BDA0002364138390000044
之外的某一特征图上采样为新的底层特征图
Figure BDA0002364138390000045
的分辨率大小,之后在通道维度上将上采样后的特征图和
Figure BDA0002364138390000046
或混合特征级联,获得级联特征fcat,所用公式为:
Figure BDA0002364138390000047
式中,fi↑表示对特征fi上采样,[c]表示通道级联操作,j=-1时,
Figure BDA0002364138390000048
表示
Figure BDA0002364138390000049
j=0,1,2时,
Figure BDA00023641383900000410
表示级联特征fcat通过三层卷积层学习后的混合特征;
步骤3-2,将所述级联特征fcat通过三层卷积层,进行特征融合的学习,获得混合特征
Figure BDA00023641383900000411
所用公式为:
Figure BDA00023641383900000412
步骤3-3,以自底向上的方式,重复步骤3-1和步骤3-2,将新的特征金字塔集合中的特征f1,f2,f3,f4即f1,
Figure BDA00023641383900000413
f3,f4逐层进行融合,获得混合特征金字塔集合
Figure BDA00023641383900000414
进一步地,步骤4中所述显著性预测网络模型包括三层卷积层,前两个卷积层后面添加有批正则化层和激活层,最后一层卷积层输出一个单通道且与原输入图像相同分辨率的显著性图。
进一步地,步骤4中所述利用所述混合特征金字塔集合中的特征对显著性预测网络模型进行训练,具体过程包括:
步骤4-1,利用显著性预测网络模型对所述混合特征金字塔集合中的特征依次进行显著性预测;
步骤4-2,对所有预测结果进行损失计算获得梯度,通过反向传递算法,利用所述梯度对显著性预测网络模型参数进行迭代更新;
反复迭代步骤4-1至步骤4-2,直至迭代次数超过预设阈值,结束对显著性预测网络模型的训练。
本发明与现有技术相比,其显著优点为:1)采用注意力模型对图像的特征进行特征选择,增强了与图像目标相关的特征,使得特征更加有效;2)采用自底向上的特征融合结构,将底层的细节特征和高层的语义特征进行了有效融合,大大提升了特征的表征能力,比一般显著性模型网络的检测准确率高。
下面结合附图对本发明作进一步详细描述。
附图说明
图1为本发明基于特征选择和特征融合的图像显著性检测方法的流程图。
图2为本发明中空间注意力模块对特征图进行特征选择的示意图。
图3为本发明中通道注意力模块对特征图进行特征选择的示意图。
图4为本发明中对特征金字塔进行自底向上特征融合的示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在一个实施例中,结合图1,本发明提出了一种基于特征选择和特征融合的图像显著性检测方法,该方法包括以下步骤:
步骤1,对输入图像进行特征提取,并将所有特征添加至特征金字塔集合中;
步骤2,对特征金字塔集合进行特征选择,获得新的特征金字塔集合;
步骤3,以自底向上的方式,对新的特征金字塔集合中的特征进行特征融合,获得混合特征金字塔集合;
步骤4,利用混合特征金字塔集合中的特征对显著性预测网络模型进行训练,利用训练后的显著性预测网络模型对待检测图像进行显著性检测。
进一步地,在其中一个实施例中,步骤1中对输入图像进行特征提取,具体采用卷积神经网络ResNext对输入图像进行特征提取,具体过程包括:
假设卷积神经网络ResNext包括的五部分卷积块分别为conv1、conv2、conv3、conv4、conv5;越高的特征层拥有丰富的语义信息,越低的特征层拥有丰富的纹理等低级信息。
步骤1-1,输入图像依次进入五部分卷积块,进行前向迭代,迭代公式为:
fi+1=convj(fi,Wj),j∈[1,5],i∈[-1,3]
式中,i=-1时,f-1为待检测图像,i分别为-1,0,1,2,3时,fi+1分别表示卷积块conv1、conv2、conv3、conv4、conv5的输出结果,Wj为卷积块convj的参数;
步骤1-2,将每一部分卷积块输出的特征图添加至输出集合形成特征金字塔集合{f0,f1,f2,f3,f4}。
示例性优选地,作为一种具体示例,上述conv1为一层卷积核大小为7x7的卷积层,conv2、conv3、conv4、conv5中分别包括了3、4、6、3个Block,Block是Resnet系列中常用的结构,具体来说是将三层卷积层串行堆叠的网络结构,三层卷积的卷积核大小分别是1x1,3x3,1x1。
示例性地,作为一种具体示例,假设输入图像I3×300×300,表示图片大小为RGB三通道,长、宽均为300像素。经过上述步骤1的过程获得特征金字塔集合为
Figure BDA0002364138390000061
其中上标表示特征图的序列号,下标表示该特征图的通道数和宽、高的形状。
进一步地,在其中一个实施例中,步骤2中对特征金字塔集合进行特征选择,具体采用空间注意力和通道注意力机制进行特征选择,具体过程包括:
步骤2-1,利用空间注意力对特征金字塔集合中的底层特征图f0进行特征选择,获得新的底层特征图
Figure BDA0002364138390000062
步骤2-2,利用通道注意力对特征金字塔集合中的中层特征图f2进行特征选择,获得新的中层特征图
Figure BDA0002364138390000071
由上获得新的特征金字塔集合
Figure BDA0002364138390000072
进一步地,在其中一个实施例中,结合图2,步骤2-1利用空间注意力对特征金字塔集合中的底层特征图f0进行特征选择,获得新的底层特征图
Figure BDA0002364138390000073
具体包括:
定义底层特征图f0
Figure BDA0002364138390000074
w、h、c分别表示特征图的宽、高和通道数;针对上述示例,
Figure BDA0002364138390000075
构建空间注意力模块,该模块包括两个子卷积块,分别记为conv11、conv22
步骤2-1-1,将fl依次放入conv11、conv22子卷积块,分别输出特征图C1、C2
C1=conv11(fl,W11)
C2=conv22(fl,W22)
式中,W11、W22分别为conv11、conv22子卷积块的参数;
作为一种具体示例,针对上述示例,将
Figure BDA0002364138390000076
依次放入conv11、conv22子卷积块,分别输出特征图C1、C2
Figure BDA0002364138390000077
步骤2-1-2,对conv11、conv22子卷积块的输出结果C1、C2进行逐元素相加,并利用sigmoid函数将相加的结果值映射到[0,1],获得空间注意力的权重SA,具体公式为:
SA=σ(C1+C2)
式中,σ表示sigmoid函数;
作为一种具体示例,针对上述示例,
Figure BDA0002364138390000078
步骤2-1-3,利用空间注意力的权重SA对底层特征图f0进行特征选择获得新的底层特征图
Figure BDA0002364138390000079
Figure BDA00023641383900000710
所用公式为:
Figure BDA00023641383900000711
进一步地,在其中一个实施例中,上述子卷积块conv11、conv22均包括两个卷积层,其中一层的卷积核数量为32,卷积核大小为3x3,另一层的卷积核数量为64,卷积核大小为3x3。
进一步地,在其中一个实施例中,结合图3,步骤2-2利用通道注意力对特征金字塔集合中的中层特征图f2进行特征选择,获得新的中层特征图
Figure BDA0002364138390000081
具体包括:
定义中层特征图f2
Figure BDA0002364138390000082
步骤2-2-1,将fm展开为一个集合:
fm={f1 m,f2 m,......,fC m}
其中,fi m为fm中的第i个通道切片特征,
Figure BDA0002364138390000083
i=1,2,…,C,C为特征图fm的通道数;
作为一种具体示例,针对上述示例中的
Figure BDA0002364138390000084
展开为一个集合fm={f1 m,f2 m,......,f512 m}。
步骤2-2-2,对每个通道切片特征fi m进行全局池化,获得一个通道级向量
Figure BDA0002364138390000085
作为一种具体示例,针对上述示例,
Figure BDA0002364138390000086
该向量是一个512x1维度的通道。
步骤2-2-3,利用两层连续的全连接层和非线性激活层学习通道级向量,获得通道级注意力向量,并利用sigmoid函数将通道级注意力向量映射到[0,1],获得通道注意力的权重CA,所用公式为:
CA=F(vm,W)=σ(fc2(δ(fc1(vm,W1)),W2))
式中,W1、W2分别为全连接层fc1、fc2的参数,δ为非线性激活函数,σ为sigmoid函数;
作为一种具体示例,针对上述示例,
Figure BDA0002364138390000087
步骤2-2-4,利用通道注意力的权重CA对中层特征图f2重新分配通道权重,获得新的中层特征图
Figure BDA0002364138390000088
Figure BDA0002364138390000089
所用公式为:
Figure BDA00023641383900000810
进一步地,在其中一个实施例中,结合图4,步骤3以自底向上的方式,对新的特征金字塔集合中的特征进行特征融合,获得融合后的特征金字塔集合,具体包括:
步骤3-1,将除新的底层特征图
Figure BDA0002364138390000091
之外的某一特征图上采样为新的底层特征图
Figure BDA0002364138390000092
的分辨率大小,之后在通道维度上将上采样后的特征图和
Figure BDA0002364138390000093
或混合特征级联,获得级联特征fcat,所用公式为:
Figure BDA0002364138390000094
式中,fi↑表示对特征fi上采样,[c]表示通道级联操作,j=-1时,
Figure BDA0002364138390000095
表示
Figure BDA0002364138390000096
j=0,1,2时,
Figure BDA0002364138390000097
表示级联特征fcat通过三层卷积层学习后的混合特征;
步骤3-2,将级联特征fcat通过三层卷积层,进行特征融合的学习,获得混合特征
Figure BDA0002364138390000098
所用公式为:
Figure BDA0002364138390000099
步骤3-3,以自底向上的方式,重复步骤3-1和步骤3-2,将新的特征金字塔集合中的特征f1,f2,f3,f4即f1,
Figure BDA00023641383900000910
f3,f4逐层进行融合,获得混合特征金字塔集合
Figure BDA00023641383900000911
示例性优选地,在其中一个实施例中,步骤3-2中三层卷积层的卷积核大小依次为3x3,3x3,1x1。
进一步地,在其中一个实施例中,步骤4中显著性预测网络模型包括三层卷积层,前两个卷积层后面添加有批正则化层和激活层,最后一层卷积层输出一个单通道且与原输入图像相同分辨率的显著性图。
示例性优选地,在其中一个实施例中,上述显著性预测网络模型包括的三层卷积层的卷积核大小依次是3x3,3x3,1x1。
进一步地,在其中一个实施例中,步骤4中利用混合特征金字塔集合中的特征对显著性预测网络模型进行训练,具体过程包括:
步骤4-1,利用显著性预测网络模型对混合特征金字塔集合中的特征依次进行显著性预测;
步骤4-2,对所有预测结果进行损失计算获得梯度,通过反向传递算法,利用梯度对显著性预测网络模型参数进行迭代更新;
反复迭代步骤4-1至步骤4-2,直至迭代次数超过预设阈值,结束对显著性预测网络模型的训练。
本发明采用注意力模型对图像的特征进行特征选择,增强了与图像目标相关的特征,使得特征更加有效,并采用自底向上的特征融合结构,将底层的细节特征和高层的语义特征进行了有效融合,大大提升了特征的表征能力,比一般显著性模型网络的检测准确率高。

Claims (10)

1.一种基于特征选择和特征融合的图像显著性检测方法,其特征在于,所述方法包括以下步骤:
步骤1,对输入图像进行特征提取,并将所有特征添加至特征金字塔集合中;
步骤2,对所述特征金字塔集合进行特征选择,获得新的特征金字塔集合;
步骤3,以自底向上的方式,对所述新的特征金字塔集合中的特征进行特征融合,获得混合特征金字塔集合;
步骤4,利用所述混合特征金字塔集合中的特征对显著性预测网络模型进行训练,利用训练后的显著性预测网络模型对待检测图像进行显著性检测。
2.根据权利要求1所述的基于特征选择和特征融合的图像显著性检测方法,其特征在于,步骤1中所述对输入图像进行特征提取,具体采用卷积神经网络ResNext对输入图像进行特征提取,具体过程包括:
假设卷积神经网络ResNext包括的五部分卷积块分别为conv1、conv2、conv3、conv4、conv5
步骤1-1,输入图像依次进入所述五部分卷积块,进行前向迭代,迭代公式为:
fi+1=convj(fi,Wj),j∈[1,5],i∈[-1,3]
式中,i=-1时,f-1为待检测图像,i分别为-1,0,1,2,3时,fi+1分别表示卷积块conv1、conv2、conv3、conv4、conv5的输出结果,Wj为卷积块convj的参数;
步骤1-2,将每一部分卷积块输出的特征图添加至输出集合形成特征金字塔集合{f0,f1,f2,f3,f4}。
3.根据权利要求1或2所述的基于特征选择和特征融合的图像显著性检测方法,其特征在于,步骤2中对所述特征金字塔集合进行特征选择,具体采用空间注意力和通道注意力机制进行特征选择,具体过程包括:
步骤2-1,利用空间注意力对特征金字塔集合中的底层特征图f0进行特征选择,获得新的底层特征图
Figure FDA0002364138380000011
步骤2-2,利用通道注意力对特征金字塔集合中的中层特征图f2进行特征选择,获得新的中层特征图
Figure FDA0002364138380000012
由上获得新的特征金字塔集合
Figure FDA0002364138380000021
4.根据权利要求3所述的基于特征选择和特征融合的图像显著性检测方法,其特征在于,步骤2-1所述利用空间注意力对特征金字塔集合中的底层特征图f0进行特征选择,获得新的底层特征图
Figure FDA0002364138380000022
具体包括:
定义底层特征图f0
Figure FDA0002364138380000023
w、h、c分别表示特征图的宽、高和通道数;构建空间注意力模块,该模块包括两个子卷积块,分别记为conv11、conv22
步骤2-1-1,将fl依次放入conv11、conv22子卷积块,分别输出特征图C1、C2
C1=conv11(fl,W11)
C2=conv22(fl,W22)
式中,W11、W22分别为conv11、conv22子卷积块的参数;
步骤2-1-2,对conv11、conv22子卷积块的输出结果C1、C2进行逐元素相加,并利用sigmoid函数将相加的结果值映射到[0,1],获得空间注意力的权重SA,具体公式为:
SA=σ(C1+C2)
式中,σ表示sigmoid函数;
步骤2-1-3,利用所述空间注意力的权重SA对底层特征图f0进行特征选择获得新的底层特征图
Figure FDA0002364138380000024
Figure FDA0002364138380000025
所用公式为:
Figure FDA0002364138380000026
5.根据权利要求4所述的基于特征选择和特征融合的图像显著性检测方法,其特征在于,所述子卷积块conv11、conv22均包括两个卷积层,其中一层的卷积核数量为32,卷积核大小为3x3,另一层的卷积核数量为64,卷积核大小为3x3。
6.根据权利要求3所述的基于特征选择和特征融合的图像显著性检测方法,其特征在于,步骤2-2所述利用通道注意力对特征金字塔集合中的中层特征图f2进行特征选择,获得新的中层特征图
Figure FDA0002364138380000027
具体包括:
定义中层特征图f2
Figure FDA0002364138380000031
步骤2-2-1,将fm展开为一个集合:
fm={f1 m,f2 m,......,fC m}
其中,fi m为fm中的第i个通道切片特征,
Figure FDA0002364138380000032
C为特征图fm的通道数;
步骤2-2-2,对每个通道切片特征fi m进行全局池化,获得一个通道级向量
Figure FDA0002364138380000033
步骤2-2-3,利用两层连续的全连接层和非线性激活层学习所述通道级向量,获得通道级注意力向量,并利用sigmoid函数将所述通道级注意力向量映射到[0,1],获得通道注意力的权重CA,所用公式为:
CA=F(vm,W)=σ(fc2(δ(fc1(vm,W1)),W2))
式中,W1、W2分别为全连接层fc1、fc2的参数,δ为非线性激活函数,σ为sigmoid函数;
步骤2-2-4,利用所述通道注意力的权重CA对中层特征图f2重新分配通道权重,获得新的中层特征图
Figure FDA0002364138380000034
Figure FDA0002364138380000035
所用公式为:
Figure FDA0002364138380000036
7.根据权利要求6所述的基于特征选择和特征融合的图像显著性检测方法,其特征在于,步骤3所述以自底向上的方式,对所述新的特征金字塔集合中的特征进行特征融合,获得融合后的特征金字塔集合,具体包括:
步骤3-1,将除新的底层特征图
Figure FDA0002364138380000037
之外的某一特征图上采样为新的底层特征图
Figure FDA0002364138380000038
的分辨率大小,之后在通道维度上将上采样后的特征图和
Figure FDA0002364138380000039
或混合特征级联,获得级联特征fcat,所用公式为:
Figure FDA00023641383800000310
式中,fi↑表示对特征fi上采样,[c]表示通道级联操作,j=-1时,fj mix表示
Figure FDA00023641383800000311
j=0,1,2时,fj mix表示级联特征fcat通过三层卷积层学习后的混合特征;
步骤3-2,将所述级联特征fcat通过三层卷积层,进行特征融合的学习,获得混合特征fj mix,所用公式为:
fj mix=conv3(conv2(conv1(fi cat,W1),W2),W3),i∈[0,3],j∈[1,4]
步骤3-3,以自底向上的方式,重复步骤3-1和步骤3-2,将新的特征金字塔集合中的特征f1,f2,f3,f4即f1,
Figure FDA0002364138380000041
f3,f4逐层进行融合,获得混合特征金字塔集合{f1 mix,f2 mix,f3 mix,f4 mix}。
8.根据权利要求7所述的基于特征选择和特征融合的图像显著性检测方法,其特征在于,步骤3-2中所述三层卷积层的卷积核大小依次为3x3,3x3,1x1。
9.根据权利要求8所述的基于特征选择和特征融合的图像显著性检测方法,其特征在于,步骤4中所述显著性预测网络模型包括三层卷积层,前两个卷积层后面添加有批正则化层和激活层,最后一层卷积层输出一个单通道且与原输入图像相同分辨率的显著性图。
10.根据权利要求9所述的基于特征选择和特征融合的图像显著性检测方法,其特征在于,步骤4中所述利用所述混合特征金字塔集合中的特征对显著性预测网络模型进行训练,具体过程包括:
步骤4-1,利用显著性预测网络模型对所述混合特征金字塔集合中的特征依次进行显著性预测;
步骤4-2,对所有预测结果进行损失计算获得梯度,通过反向传递算法,利用所述梯度对显著性预测网络模型参数进行迭代更新;
反复迭代步骤4-1至步骤4-2,直至迭代次数超过预设阈值,结束对显著性预测网络模型的训练。
CN202010030505.8A 2020-01-13 2020-01-13 基于特征选择和特征融合的图像显著性检测方法 Active CN111275076B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010030505.8A CN111275076B (zh) 2020-01-13 2020-01-13 基于特征选择和特征融合的图像显著性检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010030505.8A CN111275076B (zh) 2020-01-13 2020-01-13 基于特征选择和特征融合的图像显著性检测方法

Publications (2)

Publication Number Publication Date
CN111275076A true CN111275076A (zh) 2020-06-12
CN111275076B CN111275076B (zh) 2022-10-21

Family

ID=70997061

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010030505.8A Active CN111275076B (zh) 2020-01-13 2020-01-13 基于特征选择和特征融合的图像显著性检测方法

Country Status (1)

Country Link
CN (1) CN111275076B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111931793A (zh) * 2020-08-17 2020-11-13 湖南城市学院 一种显著性目标提取方法及***
CN112927209A (zh) * 2021-03-05 2021-06-08 重庆邮电大学 一种基于cnn的显著性检测***和方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109165660A (zh) * 2018-06-20 2019-01-08 扬州大学 一种基于卷积神经网络的显著物体检测方法
US20190355126A1 (en) * 2018-05-21 2019-11-21 National Tsing Hua University Image feature extraction method and saliency prediction method using the same
CN110619638A (zh) * 2019-08-22 2019-12-27 浙江科技学院 一种基于卷积块注意模块的多模态融合显著性检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190355126A1 (en) * 2018-05-21 2019-11-21 National Tsing Hua University Image feature extraction method and saliency prediction method using the same
CN109165660A (zh) * 2018-06-20 2019-01-08 扬州大学 一种基于卷积神经网络的显著物体检测方法
CN110619638A (zh) * 2019-08-22 2019-12-27 浙江科技学院 一种基于卷积块注意模块的多模态融合显著性检测方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111931793A (zh) * 2020-08-17 2020-11-13 湖南城市学院 一种显著性目标提取方法及***
CN111931793B (zh) * 2020-08-17 2024-04-12 湖南城市学院 一种显著性目标提取方法及***
CN112927209A (zh) * 2021-03-05 2021-06-08 重庆邮电大学 一种基于cnn的显著性检测***和方法
CN112927209B (zh) * 2021-03-05 2022-02-11 重庆邮电大学 一种基于cnn的显著性检测***和方法

Also Published As

Publication number Publication date
CN111275076B (zh) 2022-10-21

Similar Documents

Publication Publication Date Title
CN108509978B (zh) 基于cnn的多级特征融合的多类目标检测方法及模型
CN111325165B (zh) 考虑空间关系信息的城市遥感影像场景分类方法
CN113344806A (zh) 一种基于全局特征融合注意力网络的图像去雾方法与***
CN109753959B (zh) 基于自适应多尺度特征融合的路面交通标志检测方法
CN113269224B (zh) 一种场景图像分类方法、***及存储介质
CN111275076B (zh) 基于特征选择和特征融合的图像显著性检测方法
CN112233129A (zh) 基于深度学习的并行多尺度注意力机制语义分割方法及装置
CN112084952B (zh) 一种基于自监督训练的视频点位跟踪方法
CN111428664A (zh) 一种基于人工智能深度学习技术的计算机视觉的实时多人姿态估计方法
CN112132145A (zh) 一种基于模型扩展卷积神经网络的图像分类方法及***
Ma et al. An improved ResNet-50 for garbage image classification
CN115482518A (zh) 一种面向交通场景的可扩展多任务视觉感知方法
CN114219824A (zh) 基于深度网络的可见光-红外目标跟踪方法及***
CN115410087A (zh) 一种基于改进YOLOv4的输电线路异物检测方法
CN115294356A (zh) 一种基于广域感受野空间注意力的目标检测方法
CN113627487B (zh) 一种基于深层注意力机制的超分辨率重建方法
CN117218457B (zh) 一种基于双层二维归一化流的自监督工业异常检测方法
CN112967296B (zh) 一种点云动态区域图卷积方法、分类方法及分割方法
CN112668662B (zh) 基于改进YOLOv3网络的野外山林环境目标检测方法
CN113392728A (zh) 一种基于ssa锐化注意机制的目标检测方法
CN112330639A (zh) 一种用于彩色-热红外图像的显著性检测方法
CN114494354A (zh) 一种基于注意力多模态特征融合的无监督rgb-t目标跟踪方法
CN111047571B (zh) 一种具有自适应选择训练过程的图像显著目标检测方法
CN107292840A (zh) 图像复原方法及装置、计算机可读存储介质、终端
CN112101084A (zh) 基于卷积神经网络的极化sar建筑物震害信息自动提取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant