CN108960261B - 一种基于注意力机制的显著物体检测方法 - Google Patents
一种基于注意力机制的显著物体检测方法 Download PDFInfo
- Publication number
- CN108960261B CN108960261B CN201810828215.0A CN201810828215A CN108960261B CN 108960261 B CN108960261 B CN 108960261B CN 201810828215 A CN201810828215 A CN 201810828215A CN 108960261 B CN108960261 B CN 108960261B
- Authority
- CN
- China
- Prior art keywords
- convolution
- layer
- output
- side output
- graph
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
一种基于注意力机制的显著物体检测方法。涉及计算机视觉与数字图像处理领域,具体涉及一种基于注意力机制的显著物体检测方法。提供了一种基于注意力机制的显著物体检测方法,首先设计自顶向下的注意力网络用于提纯各层卷积特征,然后引入二阶项设计残差特征融合网络以更好地保留残差特征;实现以任意的静态彩色图像为输入,其输出是与输入图像大小一致的显著性图,显著性图中白色表示显著物体区域,黑色表示背景区域。本发明可以得到高分辨率的显著性图,同时能够较好地检测小显著物体。
Description
技术领域
本发明涉及计算机视觉与数字图像处理领域,具体涉及一种基于注意力机制的显著物体检测方法。
背景技术
显著物体检测是计算机视觉领域的一个热门研究课题,其目的是提取图像中吸引人注意的物体或区域,并为其赋予显著性值。作为一个预处理步骤,它可以应用于其他高层视觉任务,如弱监督语义分割、物体识别等。传统的显著物体检测方法都是基于人工设计的特征,如对比度、背景中心差异等,这些手工设计的低层视觉特征难以捕获语义信息,因而在复杂场景中效果不佳。近年来,得益于深度学习的飞速发展,显著物体检测的性能已经取得了大幅地提升。然而,现有的显著物体检测模型都是基于图像分类模型微调,由于两者任务的差异性,图像分类网络学习得到的特征无法精确定位物体边界,直接将其用于显著物体检测无法得到高分辨率的显著性图,特别是在物体边界处。另外,为了能够检测多尺度的显著物体,通常需要将不同尺度的卷积特征进行融合,然而现有的特征融合方法只是简单地相加或合并,容易弱化残差特征,从而影响小显著物体检测。
发明内容
为了克服以上弊端,本发明提供了一种基于注意力机制的显著物体检测方法,首先设计自顶向下的注意力网络用于提纯各层卷积特征,然后引入二阶项设计残差特征融合网络以更好地保留残差特征;
实现以任意的静态彩色图像为输入,其输出是与输入图像大小一致的显著性图,显著性图中白色表示显著物体区域,黑色表示背景区域。
本发明的技术方案为:包括如下步骤:
S1、以VGG-16作为预训练模型,选取四个侧输出特征(conv3_3,conv4_3,con5_3,pool5),分别记为侧输出1~4;侧输出1~4后各增加一个卷积层,卷积层的参数为{1×1×256},卷积层后的输出分别记为F1~F4;
S2、在F4后增加四个卷积层,前三个卷积层的参数为{9×9×256},每个卷积层后都附有一个非线性激活层,最后一个卷积层的参数为{1×1×1},得到侧输出4的显著性概率图S4;
S3、在F1~F3后分别增加三个注意力模块,用于提纯卷积特征,每个注意力模块的输出作为下一个注意力模块的输入,最后一个注意力模块提纯后的卷积特征分别记为A1~A3;
S4、在A1~A3后分别增加一个残差特征融合模块,用于融合不同侧输出的卷积特征,融合后的特征分别记为R1~R3;
S5、在R1~R3后分别增加一个卷积层,卷积层的参数为{1×1×1},分别得到侧输出1~3的显著性概率图S1~S3;
S6、模型训练:将待检测图像输入至构建后的网络模型,得到不同分辨率的显著性概率图S4~S1,将显著性概率图S4~S1上采样至原图像大小得到显著性概率图使用交叉熵损失函数计算各个显著性概率图和真实标注图之间的误差,并将误差进行反向传递以更新整个网络模型参数,具体定义为:
其中,I(z)和G(z)分别表示输入图像和真值标注图在坐标z处的像素值,|I|表示图像总的像素数目,Pr(G(z)=1|I(z))表示预测为显著物体的概率;
步骤S3包括以下步骤:
S3.1、采用反卷积层分别将显著性概率图S4~S2上采样两倍,作为侧输出3~1的特征权值图,记为W3~W1;
S3.2、定义如下注意力模块:该模块有两个输入,一个是卷积特征,另一个是权值图,输出是加权后的特征,通过下式计算:
其中,F和A分别表示注意力模块的输入和加权后特征,W表示权值图,c为特征的通道索引,取值1~256,i为侧输出索引,取值1~3,j为注意力模块索引,取值1~3;
S3.3、在每个注意力模块加权得到的特征后再增加一个卷积层,每个卷积层后都附有一个非线性激活层,侧输出3中的卷积层的参数为{7×7×256},侧输出2中的卷积层的参数为{5×5×256},侧输出1中的卷积层的参数为{3×3×256}。
步骤S4中的残差特征融合模块为:
该模块以相邻两个侧输出的卷积特征为输入,输出是融合后的特征,在侧输出3中通过下式计算:
在侧输出1和2中通过下式计算:
其中R为融合后的特征,i为侧输出索引,取值1~2。
本发明与现有技术相比,具有以下优点:
1)本发明设计了一种基于注意力机制的特征提纯网络,通过自顶向下特征加权可以有效滤除背景区域的干扰,从而提升显著物体检测的准确性;
2)本发明设计了一种残差特征融合网络,通过引入二阶项滤除两者的共同特征,引导网络更好地学习残差特征(物体细节部分),最终可以得到高分辨率的显著性图。
基于以上两个网络,本发明可以得到高分辨率的显著性图,同时能够较好地检测小显著物体。
附图说明
图1为本发明方法的总体流程图;
图2为本发明的注意力加权模块示意图(图1中的RAN);
图3为本发明的残差特征融合网络示意图(图1中的RRN);
图4为本发明的显著性检测结果示例,第一行为输入图像,第二行为显著性检测结果;
具体实施方式
下面结合附图对本发明的技术方案作进一步的详细说明:
本发明如图1-4所示,包括如下步骤:
S1、以VGG-16作为预训练模型,选取四个侧输出特征(conv3_3,conv4_3,con5_3,pool5),分别记为侧输出1~4;侧输出1~4后各增加一个卷积层,卷积层的参数为{1×1×256},卷积层后的输出分别记为F1~F4;该卷积层将各个侧输出特征的通道数降为256,一是降低通道冗余,二是便于后续的特征相加;本发明中卷积层的参数为{k×k×c},k表示卷积核大小,c表示卷积通道数;
S2、在F4后增加四个卷积层,前三个卷积层的参数为{9×9×256},用于学习显著性语义特征,每个卷积层后都附有一个非线性激活层ReLU,用以去除小于零的特征响应值,最后一个卷积层的参数为{1×1×1},用于降低卷积通道数,得到侧输出4的显著性概率图S4;
S3、在F1~F3后分别增加三个注意力模块,用于提纯卷积特征,每个注意力模块的输出作为下一个注意力模块的输入,最后一个注意力模块提纯后的卷积特征分别记为A1~A3;
S4、在A1~A3后分别增加一个残差特征融合模块,用于融合不同侧输出的卷积特征,融合后的特征分别记为R1~R3;
S5、在R1~R3后分别增加一个卷积层,卷积层的参数为{1×1×1},分别得到侧输出1~3的显著性概率图S1~S3;
S6、模型训练:将待检测图像输入至构建后的网络模型,得到不同分辨率的显著性概率图S4~S1,将显著性概率图S4~S1上采样至原图像大小得到显著性概率图使用交叉熵损失函数(SigmoidCrossEntropyLoss,是caffe里定义的一个层,和前面的卷积层、ReLU层一样,具体就是通过下面的公式计算的,一般用于二值预测任务中,交叉熵描述了两个概率分布之间的距离,当交叉熵越小说明二者之间越接近,加上sigmoid使概率分布在[0,1]之间)计算各个显著性概率图和真实标注图(GroundTruth)之间的误差,并将误差进行反向传递以更新整个网络模型参数,具体定义为:
其中,I(z)和G(z)分别表示输入图像和真值标注图在坐标z处的像素值,|I|表示图像总的像素数目,Pr(G(z)=1|I(z))表示预测为显著物体的概率;Pr(G(z)=0|I(z))表示预测为非显著物体的概率;l表示损失函数;
公式中,对图像中的每一个像素位置分别计算G(z)log Pr(G(z)=1|I(z))和(1-G(z))log Pr(G(z)=0|I(z)),当模型预测非常准确时,显著性概率和非显著性概率均为1,则两个对数结果均为0,此时损失函数值为0。
步骤S6中,给定输入图像和标注图像,通过不断迭代更新网络权值使得损失函数值不断减小,直至收敛得到最终的网络模型。
步骤S7中,预测得到的显著性概率图中S1的分辨率最高,检测效果最好,通过sigmoid层还可以加大显著物体和背景的对比度,所以将其输出作为最终的检测结果。
步骤S3包括以下步骤:
S3.1、采用反卷积层分别将显著性概率图S4~S2上采样两倍,作为侧输出3~1的特征权值图,记为W3~W1;
S3.2、定义如下注意力模块:该模块有两个输入,一个是卷积特征,另一个是权值图,输出是加权后的特征,通过下式计算:
其中,F和A分别表示注意力模块的输入和加权后特征,W表示权值图,c为特征的通道索引,取值1~256,i为侧输出索引,取值1~3,j为注意力模块索引,取值1~3;
S3.3、在每个注意力模块加权得到的特征后再增加一个卷积层,每个卷积层后都附有一个非线性激活层ReLU,侧输出3中的卷积层的参数为{7×7×256},侧输出2中的卷积层的参数为{5×5×256},侧输出1中的卷积层的参数为{3×3×256},不同的卷积核大小用于捕获不同尺度的显著性特征。
步骤S4中的残差特征融合模块为:
该模块以相邻两个侧输出的卷积特征为输入,输出是融合后的特征,在侧输出3中通过下式计算:
在侧输出1和2中通过下式计算:
其中R为融合后的特征,i为侧输出索引,取值1~2。
具体应用中:
一、基于注意力机制的特征提纯网络
(1)以VGG-16Net作为预训练模型,移除VGG-16中“pool5”后的网络层,然后选取“conv3_3”、“conv4_3”、“conv5_3”、“pool5”作为侧输出特征,分别记为侧输出1~4。为了保证各侧输出特征通道数一致,其后各增加一个1×1卷积核的卷积层(记为conv),将通道数(channel)降低为256。
(2)在“pool5”的1×1卷积后增加三个9×9卷积核的卷积层,通道数皆为256,用于特征学习,再通过一个1×1卷积核的卷积层得到通道数为1的侧输出4显著性概率图S4。
(3)在“conv5_3”的1×1卷积后增加一个7×7卷积核的卷积层,通道数为256,用于特征学习,学习得到的特征记为F3,1。
(4)采用反卷积层(记为deconv)将全局显著性概率图S4上采样两倍至“conv5_3”大小,作为侧输出3的特征权值图,记为W3。
(5)定义如下注意力模块:该模块有两个输入,一个是卷积特征,另一个是权值图,输出是加权后的特征,通过下式计算:
其中,F和A分别表示注意力模块的输入和加权后特征,W表示权值图,c为特征的通道索引,取值1~256,i为侧输出索引,取值1~3,j为注意力模块索引,取值1~3;
(6)在F3,1后增加一个注意力模块,以F3,1和W3为输入,得到提纯后的特征,紧接着再增加一个7×7卷积核的卷积层,通道数为256,用于特征学习,学习得到的特征记为F3,2,再以此为输入,经过一个注意力模块最后得到特征F3,3。最后通过一个1×1卷积核的卷积层得到通道数为1的侧输出3显著性概率图S3。
(7)同理,与侧输出4相似,侧输出3的显著性图上采样用于侧输出2加权,再把侧输出2的显著性图上采样用于侧输出1加权。在侧输出1和2中也分别叠加三个注意力模块,最后得到显著性概率图S1和S2。
二、残差特征融合网络
为了能够融合多尺度卷积特征,提升显著性图的分辨率,在各个侧输出最后的1×1卷积层前增加一个残差特征融合模块。该模块以相邻两个侧输出的卷积特征为输入,输出是融合后的特征,在侧输出3中通过下式计算:
在侧输出1和2中通过下式计算:
其中R为融合后的特征,i为侧输出索引(取值1~2)。
Claims (2)
1.一种基于注意力机制的显著物体检测方法,其特征在于,包括如下步骤:
S1、以VGG-16作为预训练模型,选取四个侧输出特征分别记为侧输出1~4;侧输出1~4后各增加一个卷积层,卷积层的参数为{1×1×256},卷积层后的输出分别记为卷积特征F1~F4;
S2、在F4后增加四个卷积层,前三个卷积层的参数为{9×9×256},每个卷积层后都附有一个非线性激活层,最后一个卷积层的参数为{1×1×1},得到侧输出4的显著性概率图S4;
S3、在F1~F3后分别增加三个注意力模块,用于提纯卷积特征,每个注意力模块的输出作为下一个注意力模块的输入,每个注意力模块提纯后分别记为加权后的卷积特征A1~A3;
S4、在A1~A3后分别增加一个残差特征融合模块,用于融合不同侧输出的卷积特征,融合后的特征分别记为R1~R3;
S5、在R1~R3后分别增加一个卷积层,卷积层的参数为{1×1×1},分别得到侧输出1~3的显著性概率图S1~S3;
S6、模型训练:将待检测图像输入至构建后的网络模型,得到不同分辨率的显著性概率图S4~S1,将显著性概率图S4~S1上采样至原图像大小得到显著性概率图使用交叉熵损失函数计算各个显著性概率图和真实标注图之间的误差,并将误差进行反向传递以更新整个网络模型参数,具体为:
其中,I(z)和G(z)分别表示输入图像和真值标注图在坐标z处的像素值,|I|表示图像总的像素数目,Pr(G(z)=1|I(z))表示预测为显著物体的概率;Pr(G(z)=0|I(z))表示预测为非显著物体的概率;l表示损失函数;
步骤S4中的残差特征融合模块为:
该模块以相邻两个侧输出的卷积特征为输入,输出是融合后的特征,在侧输出3中通过下式计算:
在侧输出1和2中通过下式计算:
其中R为融合后的特征,i为侧输出索引,取值1~2。
2.根据权利要求1所述的一种基于注意力机制的显著物体检测方法,其特征在于,步骤S3包括以下步骤:
S3.1、采用反卷积层分别将显著性概率图S4~S2上采样两倍,作为侧输出3~1的权值图,记为W3~W1;
S3.2、定义如下注意力模块:该模块有两个输入,一个是卷积特征,另一个是权值图,输出是加权后的卷积特征,通过下式计算:
其中,F和A分别表示卷积特征和加权后的卷积特征,W表示权值图,c为特征的通道索引,取值1~256,i为侧输出索引,取值1~3,j为注意力模块索引,取值1~3;
S3.3、在每个注意力模块加权得到的特征后再增加一个卷积层,每个卷积层后都附有一个非线性激活层,侧输出3中的卷积层的参数为{7×7×256},侧输出2中的卷积层的参数为{5×5×256},侧输出1中的卷积层的参数为{3×3×256}。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810828215.0A CN108960261B (zh) | 2018-07-25 | 2018-07-25 | 一种基于注意力机制的显著物体检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810828215.0A CN108960261B (zh) | 2018-07-25 | 2018-07-25 | 一种基于注意力机制的显著物体检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108960261A CN108960261A (zh) | 2018-12-07 |
CN108960261B true CN108960261B (zh) | 2021-09-24 |
Family
ID=64464924
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810828215.0A Active CN108960261B (zh) | 2018-07-25 | 2018-07-25 | 一种基于注意力机制的显著物体检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108960261B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109754404B (zh) * | 2019-01-02 | 2020-09-01 | 清华大学深圳研究生院 | 一种基于多注意力机制的端到端的肿瘤分割方法 |
CN109829893B (zh) * | 2019-01-03 | 2021-05-25 | 武汉精测电子集团股份有限公司 | 一种基于注意力机制的缺陷目标检测方法 |
CN109816037B (zh) * | 2019-01-31 | 2021-05-25 | 北京字节跳动网络技术有限公司 | 提取图像的特征图的方法和装置 |
CN109815964A (zh) * | 2019-01-31 | 2019-05-28 | 北京字节跳动网络技术有限公司 | 提取图像的特征图的方法和装置 |
CN110059718A (zh) * | 2019-03-18 | 2019-07-26 | 国网浙江省电力有限公司信息通信分公司 | 基于多类多注意力机制的细粒度检测方法 |
CN110175953B (zh) * | 2019-05-24 | 2023-04-18 | 鹏城实验室 | 一种图像超分辨方法和*** |
CN110210608B (zh) * | 2019-06-05 | 2021-03-26 | 国家广播电视总局广播电视科学研究院 | 基于注意力机制和多层次特征融合的低照度图像增强方法 |
CN110334718A (zh) * | 2019-07-09 | 2019-10-15 | 方玉明 | 一种基于长短期记忆的二维视频显著性检测方法 |
CN112329511A (zh) * | 2020-08-06 | 2021-02-05 | 扬州大学 | 基于残差特征金字塔的人像分割方法 |
CN112869704B (zh) * | 2021-02-02 | 2022-06-17 | 苏州大学 | 一种基于循环自适应多目标加权网络的糖尿病视网膜病变区域自动分割方法 |
CN113487546B (zh) * | 2021-06-25 | 2024-04-02 | 中南大学 | 一种特征-输出空间双对齐的变化检测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106157319A (zh) * | 2016-07-28 | 2016-11-23 | 哈尔滨工业大学 | 基于卷积神经网络的区域和像素级融合的显著性检测方法 |
CN106778757A (zh) * | 2016-12-12 | 2017-05-31 | 哈尔滨工业大学 | 基于文本显著性的场景文本检测方法 |
CN106815604A (zh) * | 2017-01-16 | 2017-06-09 | 大连理工大学 | 基于多层信息融合的注视点检测方法 |
WO2018128741A1 (en) * | 2017-01-06 | 2018-07-12 | Board Of Regents, The University Of Texas System | Segmenting generic foreground objects in images and videos |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10438088B2 (en) * | 2016-12-08 | 2019-10-08 | Intel Corporation | Visual-saliency driven scene description |
-
2018
- 2018-07-25 CN CN201810828215.0A patent/CN108960261B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106157319A (zh) * | 2016-07-28 | 2016-11-23 | 哈尔滨工业大学 | 基于卷积神经网络的区域和像素级融合的显著性检测方法 |
CN106778757A (zh) * | 2016-12-12 | 2017-05-31 | 哈尔滨工业大学 | 基于文本显著性的场景文本检测方法 |
WO2018128741A1 (en) * | 2017-01-06 | 2018-07-12 | Board Of Regents, The University Of Texas System | Segmenting generic foreground objects in images and videos |
CN106815604A (zh) * | 2017-01-16 | 2017-06-09 | 大连理工大学 | 基于多层信息融合的注视点检测方法 |
Non-Patent Citations (6)
Title |
---|
Amulet: Aggregating Multi-level Convolutional Features for Salient Object Detection;Pingping Zhang et al.;《2017 IEEE International Conference on Computer Vision》;20171231;第202-211页 * |
Holistically-Nested Edge Detection;Saining Xie et al.;《Int J Comput Vis》;20170315;第1-16页 * |
Saliency Detection for Improving Object Proposals;Shuhan Chen et al.;《2016 IEEE》;20161231;第462-466页 * |
基于多任务深度卷积神经网络的显著性对象检测算法;杨帆等;《计算机应用》;20180131;第38卷(第1期);第91-96页 * |
显著区域检测技术研究;梁晔等;《计算机科学》;20160331;第43卷(第3期);第27-32页 * |
深度卷积神经网络的显著性检测;李岳云等;《中国图像图形学报》;20160131;第21卷(第1期);第53-59页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108960261A (zh) | 2018-12-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108960261B (zh) | 一种基于注意力机制的显著物体检测方法 | |
Zhou et al. | GMNet: Graded-feature multilabel-learning network for RGB-thermal urban scene semantic segmentation | |
CN109299274B (zh) | 一种基于全卷积神经网络的自然场景文本检测方法 | |
CN106845487B (zh) | 一种端到端的车牌识别方法 | |
CN107945204B (zh) | 一种基于生成对抗网络的像素级人像抠图方法 | |
CN105657402B (zh) | 一种深度图恢复方法 | |
WO2022111355A1 (zh) | 车牌识别方法及装置、存储介质、终端 | |
US20220230282A1 (en) | Image processing method, image processing apparatus, electronic device and computer-readable storage medium | |
CN108734210B (zh) | 一种基于跨模态多尺度特征融合的对象检测方法 | |
CN109035251B (zh) | 一种基于多尺度特征解码的图像轮廓检测方法 | |
CN111257341B (zh) | 基于多尺度特征与堆叠式全卷积网络的水下建筑物裂缝检测方法 | |
CN111652321A (zh) | 一种基于改进yolov3算法的海上船舶检测方法 | |
CN107545263B (zh) | 一种物体检测方法及装置 | |
CN112581409B (zh) | 一种基于端到端的多重信息蒸馏网络的图像去雾方法 | |
CN110059728B (zh) | 基于注意力模型的rgb-d图像视觉显著性检测方法 | |
US20200242451A1 (en) | Method, system and apparatus for pattern recognition | |
CN113627228B (zh) | 一种基于关键点回归与多尺度特征融合的车道线检测方法 | |
CN112150450B (zh) | 一种基于双通道U-Net模型的图像篡改检测方法及装置 | |
CN111027576B (zh) | 基于协同显著性生成式对抗网络的协同显著性检测方法 | |
CN117079139B (zh) | 一种基于多尺度语义特征的遥感图像目标检测方法及*** | |
CN110781980B (zh) | 目标检测模型的训练方法、目标检测方法及装置 | |
CN113743417B (zh) | 语义分割方法和语义分割装置 | |
CN114048822A (zh) | 一种图像的注意力机制特征融合分割方法 | |
CN113326735A (zh) | 一种基于YOLOv5的多模态小目标检测方法 | |
US20230154157A1 (en) | Saliency-based input resampling for efficient object detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CP01 | Change in the name or title of a patent holder | ||
CP01 | Change in the name or title of a patent holder |
Address after: No.96 Anlin Road, Yangzhou City, Jiangsu Province 225006 Patentee after: Yangzhou Wanfang Technology Co.,Ltd. Address before: No.96 Anlin Road, Yangzhou City, Jiangsu Province 225006 Patentee before: YANGZHOU WANFANG ELECTRONIC TECHNOLOGY LLC |