CN111275076A - 基于特征选择和特征融合的图像显著性检测方法 - Google Patents
基于特征选择和特征融合的图像显著性检测方法 Download PDFInfo
- Publication number
- CN111275076A CN111275076A CN202010030505.8A CN202010030505A CN111275076A CN 111275076 A CN111275076 A CN 111275076A CN 202010030505 A CN202010030505 A CN 202010030505A CN 111275076 A CN111275076 A CN 111275076A
- Authority
- CN
- China
- Prior art keywords
- feature
- conv
- channel
- layer
- new
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于特征选择和特征融合的图像显著性检测方法,包括以下步骤:对输入图像进行特征提取,并将特征添加至特征金字塔集合中;对特征金字塔集合进行特征选择,获得新的特征金字塔集合;以自底向上的方式,对新的特征金字塔集合中的特征进行特征融合,获得混合特征金字塔集合;利用混合特征金字塔集合中的特征对显著性预测网络模型进行训练,利用训练后的模型对待检测图像进行显著性检测。本发明采用注意力模型对图像的特征进行特征选择,增强了与图像目标相关的特征,使得特征更加有效,并采用自底向上的特征融合结构,将底层的细节特征和高层的语义特征进行了有效融合,大大提升了特征的表征能力,比一般显著性模型网络的检测准确率高。
Description
技术领域
本发明属于图像显著性检测领域,特别涉及一种基于特征选择和特征融合的图像显著性检测方法。
背景技术
图像显著性就是图像中引起注意的对象或者物体,在图像或者视频中显著性检测的结果往往是图像或者视频中的对象,在神经学科中显著性检测被描述为注意力机制,目的是聚焦或者缩小看到的对象场景的重要部分,显著性检测可以自动处理图像中的对象表示。显著性检测可以提高对象检测、图像分割等算法的高效性。
目前最有效的显著性检测方法是基于全卷积神经网络实现的。全卷积神经网络将多个卷积层和池化层叠加起来,逐步增加感受野,生成高级语义信息,在显著性检测中起着至关重要的作用,然而池化层缩小了特征映射的大小,并恶化了突出对象的边界。有些网络用手工设计特征来保护突出物体的边界,提取手工特征来计算超像素的显著值,通过手工艺特征将图像划分为区域。在生成显著性图时,手工艺特征和卷积神经网络高级特征是互补的,但这些方法都是分开提取特征,难以有效地融合单独提取的互补特征。此外,手工工艺特征提取过程非常耗时。
除了手工工艺特征外,一些研究还发现网络不同层的特征也是互补的,并集成了用于显著性检测的多尺度特征。更具体地,深层的特征通常包含全局上下文感知信息,其适合于正确地定位显著区域。浅层的特征包含空间结构细节,适合于定位边界。这些方法融合了不同的尺度特征但没有考虑它们对显著性的不同贡献,这使得显著性检测结果不佳。为了克服这些问题,现有技术提出将关注模型和门函数引入显著性检测网络,但是,该种方法忽略了高级和低级特征的不同特征,可能会影响有效特征的提取,进而降低显著性检测的精度。
发明内容
本发明的目的在于提供一种基于特征选择和特征融合的图像显著性检测方法,能较好的对图像进行特征表征和显著性预测。
实现本发明目的的技术解决方案为:一种基于特征选择和特征融合的图像显著性检测方法,所述方法包括以下步骤:
步骤1,对输入图像进行特征提取,并将所有特征添加至特征金字塔集合中;
步骤2,对所述特征金字塔集合进行特征选择,获得新的特征金字塔集合;
步骤3,以自底向上的方式,对所述新的特征金字塔集合中的特征进行特征融合,获得混合特征金字塔集合;
步骤4,利用所述混合特征金字塔集合中的特征对显著性预测网络模型进行训练,利用训练后的显著性预测网络模型对待检测图像进行显著性检测。
进一步地,步骤1中所述对输入图像进行特征提取,具体采用卷积神经网络ResNext对输入图像进行特征提取,具体过程包括:
假设卷积神经网络ResNext包括的五部分卷积块分别为conv1、conv2、conv3、conv4、conv5;
步骤1-1,输入图像依次进入所述五部分卷积块,进行前向迭代,迭代公式为:
fi+1=convj(fi,Wj),j∈[1,5],i∈[-1,3]
式中,i=-1时,f-1为待检测图像,i分别为-1,0,1,2,3时,fi+1分别表示卷积块conv1、conv2、conv3、conv4、conv5的输出结果,Wj为卷积块convj的参数;
步骤1-2,将每一部分卷积块输出的特征图添加至输出集合形成特征金字塔集合{f0,f1,f2,f3,f4}。
进一步地,步骤2中对所述特征金字塔集合进行特征选择,具体采用空间注意力和通道注意力机制进行特征选择,具体过程包括:
步骤2-1-1,将fl依次放入conv11、conv22子卷积块,分别输出特征图C1、C2:
C1=conv11(fl,W11)
C2=conv22(fl,W22)
式中,W11、W22分别为conv11、conv22子卷积块的参数;
步骤2-1-2,对conv11、conv22子卷积块的输出结果C1、C2进行逐元素相加,并利用sigmoid函数将相加的结果值映射到[0,1],获得空间注意力的权重SA,具体公式为:
SA=σ(C1+C2)
式中,σ表示sigmoid函数;
进一步地,所述子卷积块conv11、conv22均包括两个卷积层,其中一层的卷积核数量为32,卷积核大小为3x3,另一层的卷积核数量为64,卷积核大小为3x3。
步骤2-2-1,将fm展开为一个集合:
fm={f1 m,f2 m,......,fC m}
步骤2-2-3,利用两层连续的全连接层和非线性激活层学习所述通道级向量,获得通道级注意力向量,并利用sigmoid函数将所述通道级注意力向量映射到[0,1],获得通道注意力的权重CA,所用公式为:
CA=F(vm,W)=σ(fc2(δ(fc1(vm,W1)),W2))
式中,W1、W2分别为全连接层fc1、fc2的参数,δ为非线性激活函数,σ为sigmoid函数;
进一步地,步骤3所述以自底向上的方式,对所述新的特征金字塔集合中的特征进行特征融合,获得融合后的特征金字塔集合,具体包括:
进一步地,步骤4中所述显著性预测网络模型包括三层卷积层,前两个卷积层后面添加有批正则化层和激活层,最后一层卷积层输出一个单通道且与原输入图像相同分辨率的显著性图。
进一步地,步骤4中所述利用所述混合特征金字塔集合中的特征对显著性预测网络模型进行训练,具体过程包括:
步骤4-1,利用显著性预测网络模型对所述混合特征金字塔集合中的特征依次进行显著性预测;
步骤4-2,对所有预测结果进行损失计算获得梯度,通过反向传递算法,利用所述梯度对显著性预测网络模型参数进行迭代更新;
反复迭代步骤4-1至步骤4-2,直至迭代次数超过预设阈值,结束对显著性预测网络模型的训练。
本发明与现有技术相比,其显著优点为:1)采用注意力模型对图像的特征进行特征选择,增强了与图像目标相关的特征,使得特征更加有效;2)采用自底向上的特征融合结构,将底层的细节特征和高层的语义特征进行了有效融合,大大提升了特征的表征能力,比一般显著性模型网络的检测准确率高。
下面结合附图对本发明作进一步详细描述。
附图说明
图1为本发明基于特征选择和特征融合的图像显著性检测方法的流程图。
图2为本发明中空间注意力模块对特征图进行特征选择的示意图。
图3为本发明中通道注意力模块对特征图进行特征选择的示意图。
图4为本发明中对特征金字塔进行自底向上特征融合的示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在一个实施例中,结合图1,本发明提出了一种基于特征选择和特征融合的图像显著性检测方法,该方法包括以下步骤:
步骤1,对输入图像进行特征提取,并将所有特征添加至特征金字塔集合中;
步骤2,对特征金字塔集合进行特征选择,获得新的特征金字塔集合;
步骤3,以自底向上的方式,对新的特征金字塔集合中的特征进行特征融合,获得混合特征金字塔集合;
步骤4,利用混合特征金字塔集合中的特征对显著性预测网络模型进行训练,利用训练后的显著性预测网络模型对待检测图像进行显著性检测。
进一步地,在其中一个实施例中,步骤1中对输入图像进行特征提取,具体采用卷积神经网络ResNext对输入图像进行特征提取,具体过程包括:
假设卷积神经网络ResNext包括的五部分卷积块分别为conv1、conv2、conv3、conv4、conv5;越高的特征层拥有丰富的语义信息,越低的特征层拥有丰富的纹理等低级信息。
步骤1-1,输入图像依次进入五部分卷积块,进行前向迭代,迭代公式为:
fi+1=convj(fi,Wj),j∈[1,5],i∈[-1,3]
式中,i=-1时,f-1为待检测图像,i分别为-1,0,1,2,3时,fi+1分别表示卷积块conv1、conv2、conv3、conv4、conv5的输出结果,Wj为卷积块convj的参数;
步骤1-2,将每一部分卷积块输出的特征图添加至输出集合形成特征金字塔集合{f0,f1,f2,f3,f4}。
示例性优选地,作为一种具体示例,上述conv1为一层卷积核大小为7x7的卷积层,conv2、conv3、conv4、conv5中分别包括了3、4、6、3个Block,Block是Resnet系列中常用的结构,具体来说是将三层卷积层串行堆叠的网络结构,三层卷积的卷积核大小分别是1x1,3x3,1x1。
示例性地,作为一种具体示例,假设输入图像I3×300×300,表示图片大小为RGB三通道,长、宽均为300像素。经过上述步骤1的过程获得特征金字塔集合为其中上标表示特征图的序列号,下标表示该特征图的通道数和宽、高的形状。
进一步地,在其中一个实施例中,步骤2中对特征金字塔集合进行特征选择,具体采用空间注意力和通道注意力机制进行特征选择,具体过程包括:
步骤2-1-1,将fl依次放入conv11、conv22子卷积块,分别输出特征图C1、C2:
C1=conv11(fl,W11)
C2=conv22(fl,W22)
式中,W11、W22分别为conv11、conv22子卷积块的参数;
步骤2-1-2,对conv11、conv22子卷积块的输出结果C1、C2进行逐元素相加,并利用sigmoid函数将相加的结果值映射到[0,1],获得空间注意力的权重SA,具体公式为:
SA=σ(C1+C2)
式中,σ表示sigmoid函数;
进一步地,在其中一个实施例中,上述子卷积块conv11、conv22均包括两个卷积层,其中一层的卷积核数量为32,卷积核大小为3x3,另一层的卷积核数量为64,卷积核大小为3x3。
步骤2-2-1,将fm展开为一个集合:
fm={f1 m,f2 m,......,fC m}
步骤2-2-3,利用两层连续的全连接层和非线性激活层学习通道级向量,获得通道级注意力向量,并利用sigmoid函数将通道级注意力向量映射到[0,1],获得通道注意力的权重CA,所用公式为:
CA=F(vm,W)=σ(fc2(δ(fc1(vm,W1)),W2))
式中,W1、W2分别为全连接层fc1、fc2的参数,δ为非线性激活函数,σ为sigmoid函数;
进一步地,在其中一个实施例中,结合图4,步骤3以自底向上的方式,对新的特征金字塔集合中的特征进行特征融合,获得融合后的特征金字塔集合,具体包括:
示例性优选地,在其中一个实施例中,步骤3-2中三层卷积层的卷积核大小依次为3x3,3x3,1x1。
进一步地,在其中一个实施例中,步骤4中显著性预测网络模型包括三层卷积层,前两个卷积层后面添加有批正则化层和激活层,最后一层卷积层输出一个单通道且与原输入图像相同分辨率的显著性图。
示例性优选地,在其中一个实施例中,上述显著性预测网络模型包括的三层卷积层的卷积核大小依次是3x3,3x3,1x1。
进一步地,在其中一个实施例中,步骤4中利用混合特征金字塔集合中的特征对显著性预测网络模型进行训练,具体过程包括:
步骤4-1,利用显著性预测网络模型对混合特征金字塔集合中的特征依次进行显著性预测;
步骤4-2,对所有预测结果进行损失计算获得梯度,通过反向传递算法,利用梯度对显著性预测网络模型参数进行迭代更新;
反复迭代步骤4-1至步骤4-2,直至迭代次数超过预设阈值,结束对显著性预测网络模型的训练。
本发明采用注意力模型对图像的特征进行特征选择,增强了与图像目标相关的特征,使得特征更加有效,并采用自底向上的特征融合结构,将底层的细节特征和高层的语义特征进行了有效融合,大大提升了特征的表征能力,比一般显著性模型网络的检测准确率高。
Claims (10)
1.一种基于特征选择和特征融合的图像显著性检测方法,其特征在于,所述方法包括以下步骤:
步骤1,对输入图像进行特征提取,并将所有特征添加至特征金字塔集合中;
步骤2,对所述特征金字塔集合进行特征选择,获得新的特征金字塔集合;
步骤3,以自底向上的方式,对所述新的特征金字塔集合中的特征进行特征融合,获得混合特征金字塔集合;
步骤4,利用所述混合特征金字塔集合中的特征对显著性预测网络模型进行训练,利用训练后的显著性预测网络模型对待检测图像进行显著性检测。
2.根据权利要求1所述的基于特征选择和特征融合的图像显著性检测方法,其特征在于,步骤1中所述对输入图像进行特征提取,具体采用卷积神经网络ResNext对输入图像进行特征提取,具体过程包括:
假设卷积神经网络ResNext包括的五部分卷积块分别为conv1、conv2、conv3、conv4、conv5;
步骤1-1,输入图像依次进入所述五部分卷积块,进行前向迭代,迭代公式为:
fi+1=convj(fi,Wj),j∈[1,5],i∈[-1,3]
式中,i=-1时,f-1为待检测图像,i分别为-1,0,1,2,3时,fi+1分别表示卷积块conv1、conv2、conv3、conv4、conv5的输出结果,Wj为卷积块convj的参数;
步骤1-2,将每一部分卷积块输出的特征图添加至输出集合形成特征金字塔集合{f0,f1,f2,f3,f4}。
步骤2-1-1,将fl依次放入conv11、conv22子卷积块,分别输出特征图C1、C2:
C1=conv11(fl,W11)
C2=conv22(fl,W22)
式中,W11、W22分别为conv11、conv22子卷积块的参数;
步骤2-1-2,对conv11、conv22子卷积块的输出结果C1、C2进行逐元素相加,并利用sigmoid函数将相加的结果值映射到[0,1],获得空间注意力的权重SA,具体公式为:
SA=σ(C1+C2)
式中,σ表示sigmoid函数;
5.根据权利要求4所述的基于特征选择和特征融合的图像显著性检测方法,其特征在于,所述子卷积块conv11、conv22均包括两个卷积层,其中一层的卷积核数量为32,卷积核大小为3x3,另一层的卷积核数量为64,卷积核大小为3x3。
步骤2-2-1,将fm展开为一个集合:
fm={f1 m,f2 m,......,fC m}
步骤2-2-3,利用两层连续的全连接层和非线性激活层学习所述通道级向量,获得通道级注意力向量,并利用sigmoid函数将所述通道级注意力向量映射到[0,1],获得通道注意力的权重CA,所用公式为:
CA=F(vm,W)=σ(fc2(δ(fc1(vm,W1)),W2))
式中,W1、W2分别为全连接层fc1、fc2的参数,δ为非线性激活函数,σ为sigmoid函数;
7.根据权利要求6所述的基于特征选择和特征融合的图像显著性检测方法,其特征在于,步骤3所述以自底向上的方式,对所述新的特征金字塔集合中的特征进行特征融合,获得融合后的特征金字塔集合,具体包括:
步骤3-2,将所述级联特征fcat通过三层卷积层,进行特征融合的学习,获得混合特征fj mix,所用公式为:
fj mix=conv3(conv2(conv1(fi cat,W1),W2),W3),i∈[0,3],j∈[1,4]
8.根据权利要求7所述的基于特征选择和特征融合的图像显著性检测方法,其特征在于,步骤3-2中所述三层卷积层的卷积核大小依次为3x3,3x3,1x1。
9.根据权利要求8所述的基于特征选择和特征融合的图像显著性检测方法,其特征在于,步骤4中所述显著性预测网络模型包括三层卷积层,前两个卷积层后面添加有批正则化层和激活层,最后一层卷积层输出一个单通道且与原输入图像相同分辨率的显著性图。
10.根据权利要求9所述的基于特征选择和特征融合的图像显著性检测方法,其特征在于,步骤4中所述利用所述混合特征金字塔集合中的特征对显著性预测网络模型进行训练,具体过程包括:
步骤4-1,利用显著性预测网络模型对所述混合特征金字塔集合中的特征依次进行显著性预测;
步骤4-2,对所有预测结果进行损失计算获得梯度,通过反向传递算法,利用所述梯度对显著性预测网络模型参数进行迭代更新;
反复迭代步骤4-1至步骤4-2,直至迭代次数超过预设阈值,结束对显著性预测网络模型的训练。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010030505.8A CN111275076B (zh) | 2020-01-13 | 2020-01-13 | 基于特征选择和特征融合的图像显著性检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010030505.8A CN111275076B (zh) | 2020-01-13 | 2020-01-13 | 基于特征选择和特征融合的图像显著性检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111275076A true CN111275076A (zh) | 2020-06-12 |
CN111275076B CN111275076B (zh) | 2022-10-21 |
Family
ID=70997061
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010030505.8A Active CN111275076B (zh) | 2020-01-13 | 2020-01-13 | 基于特征选择和特征融合的图像显著性检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111275076B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111931793A (zh) * | 2020-08-17 | 2020-11-13 | 湖南城市学院 | 一种显著性目标提取方法及*** |
CN112927209A (zh) * | 2021-03-05 | 2021-06-08 | 重庆邮电大学 | 一种基于cnn的显著性检测***和方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109165660A (zh) * | 2018-06-20 | 2019-01-08 | 扬州大学 | 一种基于卷积神经网络的显著物体检测方法 |
US20190355126A1 (en) * | 2018-05-21 | 2019-11-21 | National Tsing Hua University | Image feature extraction method and saliency prediction method using the same |
CN110619638A (zh) * | 2019-08-22 | 2019-12-27 | 浙江科技学院 | 一种基于卷积块注意模块的多模态融合显著性检测方法 |
-
2020
- 2020-01-13 CN CN202010030505.8A patent/CN111275076B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190355126A1 (en) * | 2018-05-21 | 2019-11-21 | National Tsing Hua University | Image feature extraction method and saliency prediction method using the same |
CN109165660A (zh) * | 2018-06-20 | 2019-01-08 | 扬州大学 | 一种基于卷积神经网络的显著物体检测方法 |
CN110619638A (zh) * | 2019-08-22 | 2019-12-27 | 浙江科技学院 | 一种基于卷积块注意模块的多模态融合显著性检测方法 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111931793A (zh) * | 2020-08-17 | 2020-11-13 | 湖南城市学院 | 一种显著性目标提取方法及*** |
CN111931793B (zh) * | 2020-08-17 | 2024-04-12 | 湖南城市学院 | 一种显著性目标提取方法及*** |
CN112927209A (zh) * | 2021-03-05 | 2021-06-08 | 重庆邮电大学 | 一种基于cnn的显著性检测***和方法 |
CN112927209B (zh) * | 2021-03-05 | 2022-02-11 | 重庆邮电大学 | 一种基于cnn的显著性检测***和方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111275076B (zh) | 2022-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108509978B (zh) | 基于cnn的多级特征融合的多类目标检测方法及模型 | |
CN111325165B (zh) | 考虑空间关系信息的城市遥感影像场景分类方法 | |
CN113344806A (zh) | 一种基于全局特征融合注意力网络的图像去雾方法与*** | |
CN109753959B (zh) | 基于自适应多尺度特征融合的路面交通标志检测方法 | |
CN113269224B (zh) | 一种场景图像分类方法、***及存储介质 | |
CN111275076B (zh) | 基于特征选择和特征融合的图像显著性检测方法 | |
CN112233129A (zh) | 基于深度学习的并行多尺度注意力机制语义分割方法及装置 | |
CN112084952B (zh) | 一种基于自监督训练的视频点位跟踪方法 | |
CN111428664A (zh) | 一种基于人工智能深度学习技术的计算机视觉的实时多人姿态估计方法 | |
CN112132145A (zh) | 一种基于模型扩展卷积神经网络的图像分类方法及*** | |
Ma et al. | An improved ResNet-50 for garbage image classification | |
CN115482518A (zh) | 一种面向交通场景的可扩展多任务视觉感知方法 | |
CN114219824A (zh) | 基于深度网络的可见光-红外目标跟踪方法及*** | |
CN115410087A (zh) | 一种基于改进YOLOv4的输电线路异物检测方法 | |
CN115294356A (zh) | 一种基于广域感受野空间注意力的目标检测方法 | |
CN113627487B (zh) | 一种基于深层注意力机制的超分辨率重建方法 | |
CN117218457B (zh) | 一种基于双层二维归一化流的自监督工业异常检测方法 | |
CN112967296B (zh) | 一种点云动态区域图卷积方法、分类方法及分割方法 | |
CN112668662B (zh) | 基于改进YOLOv3网络的野外山林环境目标检测方法 | |
CN113392728A (zh) | 一种基于ssa锐化注意机制的目标检测方法 | |
CN112330639A (zh) | 一种用于彩色-热红外图像的显著性检测方法 | |
CN114494354A (zh) | 一种基于注意力多模态特征融合的无监督rgb-t目标跟踪方法 | |
CN111047571B (zh) | 一种具有自适应选择训练过程的图像显著目标检测方法 | |
CN107292840A (zh) | 图像复原方法及装置、计算机可读存储介质、终端 | |
CN112101084A (zh) | 基于卷积神经网络的极化sar建筑物震害信息自动提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |