CN111275076B - 基于特征选择和特征融合的图像显著性检测方法 - Google Patents

基于特征选择和特征融合的图像显著性检测方法 Download PDF

Info

Publication number
CN111275076B
CN111275076B CN202010030505.8A CN202010030505A CN111275076B CN 111275076 B CN111275076 B CN 111275076B CN 202010030505 A CN202010030505 A CN 202010030505A CN 111275076 B CN111275076 B CN 111275076B
Authority
CN
China
Prior art keywords
feature
conv
features
pyramid set
channel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010030505.8A
Other languages
English (en)
Other versions
CN111275076A (zh
Inventor
袁夏
居思刚
赵春霞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN202010030505.8A priority Critical patent/CN111275076B/zh
Publication of CN111275076A publication Critical patent/CN111275076A/zh
Application granted granted Critical
Publication of CN111275076B publication Critical patent/CN111275076B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于特征选择和特征融合的图像显著性检测方法,包括以下步骤:对输入图像进行特征提取,并将特征添加至特征金字塔集合中;对特征金字塔集合进行特征选择,获得新的特征金字塔集合;以自底向上的方式,对新的特征金字塔集合中的特征进行特征融合,获得混合特征金字塔集合;利用混合特征金字塔集合中的特征对显著性预测网络模型进行训练,利用训练后的模型对待检测图像进行显著性检测。本发明采用注意力模型对图像的特征进行特征选择,增强了与图像目标相关的特征,使得特征更加有效,并采用自底向上的特征融合结构,将底层的细节特征和高层的语义特征进行了有效融合,大大提升了特征的表征能力,比一般显著性模型网络的检测准确率高。

Description

基于特征选择和特征融合的图像显著性检测方法
技术领域
本发明属于图像显著性检测领域,特别涉及一种基于特征选择和特征融合的图像显著性检测方法。
背景技术
图像显著性就是图像中引起注意的对象或者物体,在图像或者视频中显著性检测的结果往往是图像或者视频中的对象,在神经学科中显著性检测被描述为注意力机制,目的是聚焦或者缩小看到的对象场景的重要部分,显著性检测可以自动处理图像中的对象表示。显著性检测可以提高对象检测、图像分割等算法的高效性。
目前最有效的显著性检测方法是基于全卷积神经网络实现的。全卷积神经网络将多个卷积层和池化层叠加起来,逐步增加感受野,生成高级语义信息,在显著性检测中起着至关重要的作用,然而池化层缩小了特征映射的大小,并恶化了突出对象的边界。有些网络用手工设计特征来保护突出物体的边界,提取手工特征来计算超像素的显著值,通过手工艺特征将图像划分为区域。在生成显著性图时,手工艺特征和卷积神经网络高级特征是互补的,但这些方法都是分开提取特征,难以有效地融合单独提取的互补特征。此外,手工工艺特征提取过程非常耗时。
除了手工工艺特征外,一些研究还发现网络不同层的特征也是互补的,并集成了用于显著性检测的多尺度特征。更具体地,深层的特征通常包含全局上下文感知信息,其适合于正确地定位显著区域。浅层的特征包含空间结构细节,适合于定位边界。这些方法融合了不同的尺度特征但没有考虑它们对显著性的不同贡献,这使得显著性检测结果不佳。为了克服这些问题,现有技术提出将关注模型和门函数引入显著性检测网络,但是,该种方法忽略了高级和低级特征的不同特征,可能会影响有效特征的提取,进而降低显著性检测的精度。
发明内容
本发明的目的在于提供一种基于特征选择和特征融合的图像显著性检测方法,能较好的对图像进行特征表征和显著性预测。
实现本发明目的的技术解决方案为:一种基于特征选择和特征融合的图像显著性检测方法,所述方法包括以下步骤:
步骤1,对输入图像进行特征提取,并将所有特征添加至特征金字塔集合中;
步骤2,对所述特征金字塔集合进行特征选择,获得新的特征金字塔集合;
步骤3,以自底向上的方式,对所述新的特征金字塔集合中的特征进行特征融合,获得混合特征金字塔集合;
步骤4,利用所述混合特征金字塔集合中的特征对显著性预测网络模型进行训练,利用训练后的显著性预测网络模型对待检测图像进行显著性检测。
进一步地,步骤1中所述对输入图像进行特征提取,具体采用卷积神经网络ResNext对输入图像进行特征提取,具体过程包括:
假设卷积神经网络ResNext包括的五部分卷积块分别为conv1、conv2、conv3、conv4、conv5
步骤1-1,输入图像依次进入所述五部分卷积块,进行前向迭代,迭代公式为:
fi+1=convj(fi,Wj),j∈[1,5],i∈[-1,3]
式中,i=-1时,f-1为待检测图像,i分别为-1,0,1,2,3时,fi+1分别表示卷积块conv1、conv2、conv3、conv4、conv5的输出结果,Wj为卷积块convj的参数;
步骤1-2,将每一部分卷积块输出的特征图添加至输出集合形成特征金字塔集合{f0,f1,f2,f3,f4}。
进一步地,步骤2中对所述特征金字塔集合进行特征选择,具体采用空间注意力和通道注意力机制进行特征选择,具体过程包括:
步骤2-1,利用空间注意力对特征金字塔集合中的底层特征图f0进行特征选择,获得新的底层特征图
Figure BDA0002364138390000021
步骤2-2,利用通道注意力对特征金字塔集合中的中层特征图f2进行特征选择,获得新的中层特征图
Figure BDA0002364138390000022
由上获得新的特征金字塔集合
Figure BDA0002364138390000023
进一步地,步骤2-1所述利用空间注意力对特征金字塔集合中的底层特征图f0进行特征选择,获得新的底层特征图
Figure BDA0002364138390000024
具体包括:
定义底层特征图f0
Figure BDA0002364138390000031
w、h、c分别表示特征图的宽、高和通道数;构建空间注意力模块,该模块包括两个子卷积块,分别记为conv11、conv22
步骤2-1-1,将fl依次放入conv11、conv22子卷积块,分别输出特征图C1、C2
C1=conv11(fl,W11)
C2=conv22(fl,W22)
式中,W11、W22分别为conv11、conv22子卷积块的参数;
步骤2-1-2,对conv11、conv22子卷积块的输出结果C1、C2进行逐元素相加,并利用sigmoid函数将相加的结果值映射到[0,1],获得空间注意力的权重SA,具体公式为:
SA=σ(C1+C2)
式中,σ表示sigmoid函数;
步骤2-1-3,利用所述空间注意力的权重SA对底层特征图f0进行特征选择获得新的底层特征图
Figure BDA0002364138390000032
Figure BDA0002364138390000033
所用公式为:
Figure BDA0002364138390000034
进一步地,所述子卷积块conv11、conv22均包括两个卷积层,其中一层的卷积核数量为32,卷积核大小为3x3,另一层的卷积核数量为64,卷积核大小为3x3。
进一步地,步骤2-2所述利用通道注意力对特征金字塔集合中的中层特征图f2进行特征选择,获得新的中层特征图
Figure BDA0002364138390000035
具体包括:
定义中层特征图f2
Figure BDA0002364138390000036
步骤2-2-1,将fm展开为一个集合:
fm={f1 m,f2 m,......,fC m}
其中,fi m为fm中的第i个通道切片特征,
Figure BDA0002364138390000037
i=1,2,…,C,C为特征图fm的通道数;
步骤2-2-2,对每个通道切片特征fi m进行全局池化,获得一个通道级向量
Figure BDA0002364138390000038
步骤2-2-3,利用两层连续的全连接层和非线性激活层学习所述通道级向量,获得通道级注意力向量,并利用sigmoid函数将所述通道级注意力向量映射到[0,1],获得通道注意力的权重CA,所用公式为:
CA=F(vm,W)=σ(fc2(δ(fc1(vm,W1)),W2))
式中,W1、W2分别为全连接层fc1、fc2的参数,δ为非线性激活函数,σ为sigmoid函数;
步骤2-2-4,利用所述通道注意力的权重CA对中层特征图f2重新分配通道权重,获得新的中层特征图
Figure BDA0002364138390000041
Figure BDA0002364138390000042
所用公式为:
Figure BDA0002364138390000043
进一步地,步骤3所述以自底向上的方式,对所述新的特征金字塔集合中的特征进行特征融合,获得融合后的特征金字塔集合,具体包括:
步骤3-1,将除新的底层特征图
Figure BDA0002364138390000044
之外的某一特征图上采样为新的底层特征图
Figure BDA0002364138390000045
的分辨率大小,之后在通道维度上将上采样后的特征图和
Figure BDA0002364138390000046
或混合特征级联,获得级联特征fcat,所用公式为:
Figure BDA0002364138390000047
式中,fi↑表示对特征fi上采样,[c]表示通道级联操作,j=-1时,
Figure BDA0002364138390000048
表示
Figure BDA0002364138390000049
j=0,1,2时,
Figure BDA00023641383900000410
表示级联特征fcat通过三层卷积层学习后的混合特征;
步骤3-2,将所述级联特征fcat通过三层卷积层,进行特征融合的学习,获得混合特征
Figure BDA00023641383900000411
所用公式为:
Figure BDA00023641383900000412
步骤3-3,以自底向上的方式,重复步骤3-1和步骤3-2,将新的特征金字塔集合中的特征f1,f2,f3,f4即f1,
Figure BDA00023641383900000413
f3,f4逐层进行融合,获得混合特征金字塔集合
Figure BDA00023641383900000414
进一步地,步骤4中所述显著性预测网络模型包括三层卷积层,前两个卷积层后面添加有批正则化层和激活层,最后一层卷积层输出一个单通道且与原输入图像相同分辨率的显著性图。
进一步地,步骤4中所述利用所述混合特征金字塔集合中的特征对显著性预测网络模型进行训练,具体过程包括:
步骤4-1,利用显著性预测网络模型对所述混合特征金字塔集合中的特征依次进行显著性预测;
步骤4-2,对所有预测结果进行损失计算获得梯度,通过反向传递算法,利用所述梯度对显著性预测网络模型参数进行迭代更新;
反复迭代步骤4-1至步骤4-2,直至迭代次数超过预设阈值,结束对显著性预测网络模型的训练。
本发明与现有技术相比,其显著优点为:1)采用注意力模型对图像的特征进行特征选择,增强了与图像目标相关的特征,使得特征更加有效;2)采用自底向上的特征融合结构,将底层的细节特征和高层的语义特征进行了有效融合,大大提升了特征的表征能力,比一般显著性模型网络的检测准确率高。
下面结合附图对本发明作进一步详细描述。
附图说明
图1为本发明基于特征选择和特征融合的图像显著性检测方法的流程图。
图2为本发明中空间注意力模块对特征图进行特征选择的示意图。
图3为本发明中通道注意力模块对特征图进行特征选择的示意图。
图4为本发明中对特征金字塔进行自底向上特征融合的示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在一个实施例中,结合图1,本发明提出了一种基于特征选择和特征融合的图像显著性检测方法,该方法包括以下步骤:
步骤1,对输入图像进行特征提取,并将所有特征添加至特征金字塔集合中;
步骤2,对特征金字塔集合进行特征选择,获得新的特征金字塔集合;
步骤3,以自底向上的方式,对新的特征金字塔集合中的特征进行特征融合,获得混合特征金字塔集合;
步骤4,利用混合特征金字塔集合中的特征对显著性预测网络模型进行训练,利用训练后的显著性预测网络模型对待检测图像进行显著性检测。
进一步地,在其中一个实施例中,步骤1中对输入图像进行特征提取,具体采用卷积神经网络ResNext对输入图像进行特征提取,具体过程包括:
假设卷积神经网络ResNext包括的五部分卷积块分别为conv1、conv2、conv3、conv4、conv5;越高的特征层拥有丰富的语义信息,越低的特征层拥有丰富的纹理等低级信息。
步骤1-1,输入图像依次进入五部分卷积块,进行前向迭代,迭代公式为:
fi+1=convj(fi,Wj),j∈[1,5],i∈[-1,3]
式中,i=-1时,f-1为待检测图像,i分别为-1,0,1,2,3时,fi+1分别表示卷积块conv1、conv2、conv3、conv4、conv5的输出结果,Wj为卷积块convj的参数;
步骤1-2,将每一部分卷积块输出的特征图添加至输出集合形成特征金字塔集合{f0,f1,f2,f3,f4}。
示例性优选地,作为一种具体示例,上述conv1为一层卷积核大小为7x7的卷积层,conv2、conv3、conv4、conv5中分别包括了3、4、6、3个Block,Block是Resnet系列中常用的结构,具体来说是将三层卷积层串行堆叠的网络结构,三层卷积的卷积核大小分别是1x1,3x3,1x1。
示例性地,作为一种具体示例,假设输入图像I3×300×300,表示图片大小为RGB三通道,长、宽均为300像素。经过上述步骤1的过程获得特征金字塔集合为
Figure BDA0002364138390000061
其中上标表示特征图的序列号,下标表示该特征图的通道数和宽、高的形状。
进一步地,在其中一个实施例中,步骤2中对特征金字塔集合进行特征选择,具体采用空间注意力和通道注意力机制进行特征选择,具体过程包括:
步骤2-1,利用空间注意力对特征金字塔集合中的底层特征图f0进行特征选择,获得新的底层特征图
Figure BDA0002364138390000062
步骤2-2,利用通道注意力对特征金字塔集合中的中层特征图f2进行特征选择,获得新的中层特征图
Figure BDA0002364138390000071
由上获得新的特征金字塔集合
Figure BDA0002364138390000072
进一步地,在其中一个实施例中,结合图2,步骤2-1利用空间注意力对特征金字塔集合中的底层特征图f0进行特征选择,获得新的底层特征图
Figure BDA0002364138390000073
具体包括:
定义底层特征图f0
Figure BDA0002364138390000074
w、h、c分别表示特征图的宽、高和通道数;针对上述示例,
Figure BDA0002364138390000075
构建空间注意力模块,该模块包括两个子卷积块,分别记为conv11、conv22
步骤2-1-1,将fl依次放入conv11、conv22子卷积块,分别输出特征图C1、C2
C1=conv11(fl,W11)
C2=conv22(fl,W22)
式中,W11、W22分别为conv11、conv22子卷积块的参数;
作为一种具体示例,针对上述示例,将
Figure BDA0002364138390000076
依次放入conv11、conv22子卷积块,分别输出特征图C1、C2
Figure BDA0002364138390000077
步骤2-1-2,对conv11、conv22子卷积块的输出结果C1、C2进行逐元素相加,并利用sigmoid函数将相加的结果值映射到[0,1],获得空间注意力的权重SA,具体公式为:
SA=σ(C1+C2)
式中,σ表示sigmoid函数;
作为一种具体示例,针对上述示例,
Figure BDA0002364138390000078
步骤2-1-3,利用空间注意力的权重SA对底层特征图f0进行特征选择获得新的底层特征图
Figure BDA0002364138390000079
Figure BDA00023641383900000710
所用公式为:
Figure BDA00023641383900000711
进一步地,在其中一个实施例中,上述子卷积块conv11、conv22均包括两个卷积层,其中一层的卷积核数量为32,卷积核大小为3x3,另一层的卷积核数量为64,卷积核大小为3x3。
进一步地,在其中一个实施例中,结合图3,步骤2-2利用通道注意力对特征金字塔集合中的中层特征图f2进行特征选择,获得新的中层特征图
Figure BDA0002364138390000081
具体包括:
定义中层特征图f2
Figure BDA0002364138390000082
步骤2-2-1,将fm展开为一个集合:
fm={f1 m,f2 m,......,fC m}
其中,fi m为fm中的第i个通道切片特征,
Figure BDA0002364138390000083
i=1,2,…,C,C为特征图fm的通道数;
作为一种具体示例,针对上述示例中的
Figure BDA0002364138390000084
展开为一个集合fm={f1 m,f2 m,......,f512 m}。
步骤2-2-2,对每个通道切片特征fi m进行全局池化,获得一个通道级向量
Figure BDA0002364138390000085
作为一种具体示例,针对上述示例,
Figure BDA0002364138390000086
该向量是一个512x1维度的通道。
步骤2-2-3,利用两层连续的全连接层和非线性激活层学习通道级向量,获得通道级注意力向量,并利用sigmoid函数将通道级注意力向量映射到[0,1],获得通道注意力的权重CA,所用公式为:
CA=F(vm,W)=σ(fc2(δ(fc1(vm,W1)),W2))
式中,W1、W2分别为全连接层fc1、fc2的参数,δ为非线性激活函数,σ为sigmoid函数;
作为一种具体示例,针对上述示例,
Figure BDA0002364138390000087
步骤2-2-4,利用通道注意力的权重CA对中层特征图f2重新分配通道权重,获得新的中层特征图
Figure BDA0002364138390000088
Figure BDA0002364138390000089
所用公式为:
Figure BDA00023641383900000810
进一步地,在其中一个实施例中,结合图4,步骤3以自底向上的方式,对新的特征金字塔集合中的特征进行特征融合,获得融合后的特征金字塔集合,具体包括:
步骤3-1,将除新的底层特征图
Figure BDA0002364138390000091
之外的某一特征图上采样为新的底层特征图
Figure BDA0002364138390000092
的分辨率大小,之后在通道维度上将上采样后的特征图和
Figure BDA0002364138390000093
或混合特征级联,获得级联特征fcat,所用公式为:
Figure BDA0002364138390000094
式中,fi↑表示对特征fi上采样,[c]表示通道级联操作,j=-1时,
Figure BDA0002364138390000095
表示
Figure BDA0002364138390000096
j=0,1,2时,
Figure BDA0002364138390000097
表示级联特征fcat通过三层卷积层学习后的混合特征;
步骤3-2,将级联特征fcat通过三层卷积层,进行特征融合的学习,获得混合特征
Figure BDA0002364138390000098
所用公式为:
Figure BDA0002364138390000099
步骤3-3,以自底向上的方式,重复步骤3-1和步骤3-2,将新的特征金字塔集合中的特征f1,f2,f3,f4即f1,
Figure BDA00023641383900000910
f3,f4逐层进行融合,获得混合特征金字塔集合
Figure BDA00023641383900000911
示例性优选地,在其中一个实施例中,步骤3-2中三层卷积层的卷积核大小依次为3x3,3x3,1x1。
进一步地,在其中一个实施例中,步骤4中显著性预测网络模型包括三层卷积层,前两个卷积层后面添加有批正则化层和激活层,最后一层卷积层输出一个单通道且与原输入图像相同分辨率的显著性图。
示例性优选地,在其中一个实施例中,上述显著性预测网络模型包括的三层卷积层的卷积核大小依次是3x3,3x3,1x1。
进一步地,在其中一个实施例中,步骤4中利用混合特征金字塔集合中的特征对显著性预测网络模型进行训练,具体过程包括:
步骤4-1,利用显著性预测网络模型对混合特征金字塔集合中的特征依次进行显著性预测;
步骤4-2,对所有预测结果进行损失计算获得梯度,通过反向传递算法,利用梯度对显著性预测网络模型参数进行迭代更新;
反复迭代步骤4-1至步骤4-2,直至迭代次数超过预设阈值,结束对显著性预测网络模型的训练。
本发明采用注意力模型对图像的特征进行特征选择,增强了与图像目标相关的特征,使得特征更加有效,并采用自底向上的特征融合结构,将底层的细节特征和高层的语义特征进行了有效融合,大大提升了特征的表征能力,比一般显著性模型网络的检测准确率高。

Claims (6)

1.一种基于特征选择和特征融合的图像显著性检测方法,其特征在于,所述方法包括以下步骤:
步骤1,对输入图像进行特征提取,并将所有特征添加至特征金字塔集合中;所述对输入图像进行特征提取,具体采用卷积神经网络ResNext对输入图像进行特征提取,具体过程包括:
假设卷积神经网络ResNext包括的五部分卷积块分别为conv1、conv2、conv3、conv4、conv5
步骤1-1,输入图像依次进入所述五部分卷积块,进行前向迭代,迭代公式为:
fi+1=convj(fi,Wj),j∈[1,5],i∈[-1,3]
式中,i=-1时,f-1为待检测图像,i分别为-1,0,1,2,3时,fi+1分别表示卷积块conv1、conv2、conv3、conv4、conv5的输出结果,Wj为卷积块convj的参数;
步骤1-2,将每一部分卷积块输出的特征图添加至输出集合形成特征金字塔集合{f0,f1,f2,f3,f4};
步骤2,对所述特征金字塔集合进行特征选择,获得新的特征金字塔集合;对所述特征金字塔集合进行特征选择,具体采用空间注意力和通道注意力机制进行特征选择,具体过程包括:
步骤2-1,利用空间注意力对特征金字塔集合中的底层特征图f0进行特征选择,获得新的底层特征图
Figure FDA0003796149800000011
步骤2-2,利用通道注意力对特征金字塔集合中的中层特征图f2进行特征选择,获得新的中层特征图
Figure FDA0003796149800000012
由上获得新的特征金字塔集合
Figure FDA0003796149800000013
步骤3,以自底向上的方式,对所述新的特征金字塔集合中的特征进行特征融合,获得混合特征金字塔集合;所述以自底向上的方式,对所述新的特征金字塔集合中的特征进行特征融合,获得融合后的特征金字塔集合,具体包括:
步骤3-1,将除新的底层特征图
Figure FDA0003796149800000014
之外的某一特征图上采样为新的底层特征图
Figure FDA0003796149800000015
的分辨率大小,之后在通道维度上将上采样后的特征图和
Figure FDA0003796149800000021
或混合特征级联,获得级联特征fcat,所用公式为:
Figure FDA0003796149800000022
式中,fi↑表示对特征fi上采样,[c]表示通道级联操作,j=-1时,
Figure FDA0003796149800000023
表示
Figure FDA0003796149800000024
j=0,1,2时,
Figure FDA0003796149800000025
表示级联特征fcat通过三层卷积层学习后的混合特征;
步骤3-2,将所述级联特征fcat通过三层卷积层,进行特征融合的学习,获得混合特征
Figure FDA0003796149800000026
所用公式为:
Figure FDA0003796149800000027
步骤3-3,以自底向上的方式,重复步骤3-1和步骤3-2,将新的特征金字塔集合中的特征f1,f2,f3,f4即f1,
Figure FDA0003796149800000028
f3,f4,逐层进行融合,获得混合特征金字塔集合
Figure FDA0003796149800000029
步骤4,利用所述混合特征金字塔集合中的特征对显著性预测网络模型进行训练,利用训练后的显著性预测网络模型对待检测图像进行显著性检测;所述显著性预测网络模型包括三层卷积层,前两个卷积层后面添加有批正则化层和激活层,最后一层卷积层输出一个单通道且与原输入图像相同分辨率的显著性图。
2.根据权利要求1所述的基于特征选择和特征融合的图像显著性检测方法,其特征在于,步骤2-1所述利用空间注意力对特征金字塔集合中的底层特征图f0进行特征选择,获得新的底层特征图
Figure FDA00037961498000000210
具体包括:
定义底层特征图f0
Figure FDA00037961498000000211
w、h、c分别表示特征图的宽、高和通道数;构建空间注意力模块,该模块包括两个子卷积块,分别记为conv11、conv22
步骤2-1-1,将fl依次放入conv11、conv22子卷积块,分别输出特征图C1、C2
C1=conv11(fl,W11)
C2=conv22(fl,W22)
式中,W11、W22分别为conv11、conv22子卷积块的参数;
步骤2-1-2,对conv11、conv22子卷积块的输出结果C1、C2进行逐元素相加,并利用sigmoid函数将相加的结果值映射到[0,1],获得空间注意力的权重SA,具体公式为:
SA=σ(C1+C2)
式中,σ表示sigmoid函数;
步骤2-1-3,利用所述空间注意力的权重SA对底层特征图f0进行特征选择获得新的底层特征图
Figure FDA0003796149800000031
Figure FDA0003796149800000032
所用公式为:
Figure FDA0003796149800000033
3.根据权利要求2所述的基于特征选择和特征融合的图像显著性检测方法,其特征在于,所述子卷积块conv11、conv22均包括两个卷积层,其中一层的卷积核数量为32,卷积核大小为3x3,另一层的卷积核数量为64,卷积核大小为3x3。
4.根据权利要求1所述的基于特征选择和特征融合的图像显著性检测方法,其特征在于,步骤2-2所述利用通道注意力对特征金字塔集合中的中层特征图f2进行特征选择,获得新的中层特征图
Figure FDA0003796149800000034
具体包括:
定义中层特征图f2
Figure FDA0003796149800000035
步骤2-2-1,将fm展开为一个集合:
fm={f1 m,f2 m,......,fC m}
其中,fi m为fm中的第i个通道切片特征,
Figure FDA0003796149800000036
C为特征图fm的通道数;
步骤2-2-2,对每个通道切片特征fi m进行全局池化,获得一个通道级向量
Figure FDA0003796149800000037
步骤2-2-3,利用两层连续的全连接层和非线性激活层学习所述通道级向量,获得通道级注意力向量,并利用sigmoid函数将所述通道级注意力向量映射到[0,1],获得通道注意力的权重CA,所用公式为:
CA=F(vm,W)=σ(fc2(δ(fc1(vm,W1)),W2))
式中,W1、W2分别为全连接层fc1、fc2的参数,δ为非线性激活函数,σ为sigmoid函数;
步骤2-2-4,利用所述通道注意力的权重CA对中层特征图f2重新分配通道权重,获得新的中层特征图
Figure FDA0003796149800000041
Figure FDA0003796149800000042
所用公式为:
Figure FDA0003796149800000043
5.根据权利要求1所述的基于特征选择和特征融合的图像显著性检测方法,其特征在于,步骤3-2中所述三层卷积层的卷积核大小依次为3x3,3x3,1x1。
6.根据权利要求1所述的基于特征选择和特征融合的图像显著性检测方法,其特征在于,步骤4中所述利用所述混合特征金字塔集合中的特征对显著性预测网络模型进行训练,具体过程包括:
步骤4-1,利用显著性预测网络模型对所述混合特征金字塔集合中的特征依次进行显著性预测;
步骤4-2,对所有预测结果进行损失计算获得梯度,通过反向传递算法,利用所述梯度对显著性预测网络模型参数进行迭代更新;
反复迭代步骤4-1至步骤4-2,直至迭代次数超过预设阈值,结束对显著性预测网络模型的训练。
CN202010030505.8A 2020-01-13 2020-01-13 基于特征选择和特征融合的图像显著性检测方法 Active CN111275076B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010030505.8A CN111275076B (zh) 2020-01-13 2020-01-13 基于特征选择和特征融合的图像显著性检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010030505.8A CN111275076B (zh) 2020-01-13 2020-01-13 基于特征选择和特征融合的图像显著性检测方法

Publications (2)

Publication Number Publication Date
CN111275076A CN111275076A (zh) 2020-06-12
CN111275076B true CN111275076B (zh) 2022-10-21

Family

ID=70997061

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010030505.8A Active CN111275076B (zh) 2020-01-13 2020-01-13 基于特征选择和特征融合的图像显著性检测方法

Country Status (1)

Country Link
CN (1) CN111275076B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111931793B (zh) * 2020-08-17 2024-04-12 湖南城市学院 一种显著性目标提取方法及***
CN112927209B (zh) * 2021-03-05 2022-02-11 重庆邮电大学 一种基于cnn的显著性检测***和方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109165660A (zh) * 2018-06-20 2019-01-08 扬州大学 一种基于卷积神经网络的显著物体检测方法
CN110619638A (zh) * 2019-08-22 2019-12-27 浙江科技学院 一种基于卷积块注意模块的多模态融合显著性检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI709107B (zh) * 2018-05-21 2020-11-01 國立清華大學 影像特徵提取方法及包含其顯著物體預測方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109165660A (zh) * 2018-06-20 2019-01-08 扬州大学 一种基于卷积神经网络的显著物体检测方法
CN110619638A (zh) * 2019-08-22 2019-12-27 浙江科技学院 一种基于卷积块注意模块的多模态融合显著性检测方法

Also Published As

Publication number Publication date
CN111275076A (zh) 2020-06-12

Similar Documents

Publication Publication Date Title
CN108509978B (zh) 基于cnn的多级特征融合的多类目标检测方法及模型
Qian et al. Learning and transferring representations for image steganalysis using convolutional neural network
CN111325165B (zh) 考虑空间关系信息的城市遥感影像场景分类方法
Doegar et al. Cnn based image forgery detection using pre-trained alexnet model
CN113344806A (zh) 一种基于全局特征融合注意力网络的图像去雾方法与***
CN110287777B (zh) 一种自然场景下的金丝猴躯体分割算法
CN109753959B (zh) 基于自适应多尺度特征融合的路面交通标志检测方法
CN111275076B (zh) 基于特征选择和特征融合的图像显著性检测方法
CN110866455B (zh) 一种路面水体检测方法
CN113269224B (zh) 一种场景图像分类方法、***及存储介质
CN113449612B (zh) 一种基于子流型稀疏卷积的三维目标点云识别的方法
CN112991364A (zh) 基于卷积神经网络跨模态融合的道路场景语义分割方法
CN112132145A (zh) 一种基于模型扩展卷积神经网络的图像分类方法及***
CN113393457A (zh) 一种结合残差密集块与位置注意力的无锚框目标检测方法
CN111967464A (zh) 一种基于深度学习的弱监督目标定位方法
JP2015036939A (ja) 特徴抽出プログラム及び情報処理装置
CN113627487B (zh) 一种基于深层注意力机制的超分辨率重建方法
CN115410087A (zh) 一种基于改进YOLOv4的输电线路异物检测方法
CN115482518A (zh) 一种面向交通场景的可扩展多任务视觉感知方法
CN111340189A (zh) 一种空间金字塔图卷积网络实现方法
CN117218457B (zh) 一种基于双层二维归一化流的自监督工业异常检测方法
CN112508106A (zh) 一种基于卷积神经网络的水下图像分类方法
CN111047571B (zh) 一种具有自适应选择训练过程的图像显著目标检测方法
CN111488834B (zh) 一种基于多层级特征融合的人群计数方法
Mujtaba et al. Automatic solar panel detection from high-resolution orthoimagery using deep learning segmentation networks

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant