CN107862702A - 一种结合边界连通性与局部对比性的显著性检测方法 - Google Patents
一种结合边界连通性与局部对比性的显著性检测方法 Download PDFInfo
- Publication number
- CN107862702A CN107862702A CN201711192447.3A CN201711192447A CN107862702A CN 107862702 A CN107862702 A CN 107862702A CN 201711192447 A CN201711192447 A CN 201711192447A CN 107862702 A CN107862702 A CN 107862702A
- Authority
- CN
- China
- Prior art keywords
- super
- pixel
- representing
- value
- ith
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/143—Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Probability & Statistics with Applications (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明属于图像处理领域,涉及一种结合边界连通性与局部对比性的显著性检测方法,解决图像显著性检测问题。首先使用SLIC算法进行超像素的划分,通过Harris角点检测,利用局部对比性的特征,获取包围前景区域的凸包。然后利用聚类算法去除凸包中的背景区域,将获得的前景区域作为随机游走模型的吸收节点,并进行聚类内传播优化获取各超像素的前景概率。同时利用各区域边界连通性的特征,计算各超像素的背景概率。最后结合各超像素前景概率、背景概率得到一幅显著图,通过抑制背景超像素显著值得到最终显著图。该方法能够识别出图像中的最显著部分,得到更接近于真值图的显著图。
Description
技术领域
本发明属于图像处理领域,涉及一种结合边界连通性与局部对比性的显著性检测方法。
背景技术
图像显著性检测的目的是查找图像中最显著的部分,显著部分表示的是图像中的哪些区域能够引起人们的重视以及重视的程度,高效快速的找到显著部分能大大提高图像处理的效率。显著性检测算法可以分成两大类:自顶向下方法和自底向上方法。自顶向下通常是针对特定的任务,使用有监督的方式学习目标的各种特征,使用学到的特征信息完成图像中显著性目标的识别,这类方法的缺点是只能完成特定的目标且必须通过训练,扩展性较差。自底向上的方法直接通过像素等信息来进行计算,不需要进行学习,通过计算图像中不同部分之间的差异来查找显著部分。
Harris角点检测是一种常用的兴趣点检测方法,作为提取特征的主要手段广泛的应用于目标跟踪,图像匹配中。角点提供了场景中人们感兴趣目标的有用的空间信息,Xie等人使用角点检测获得凸包,并依据划分的区域与凸包的交集程度来计算超像素的显著性,但这就存在一个问题,即凸包中的区域有些并不属于显著区域,将凸包内所有区域都当作显著区域是不合适的。另外,凸包包围的区域也存在不能完全包围显著区域的问题。
随机游走模型,是指数学中具有马尔可夫性质的离散事件随机过程。该过程中,在给定当前知识或信息的情况下,过去的状态对于预测将来的状态是无关的。随机游走模型通常用来建模排队理论和统计学中的建模,还可作为信号模型用于熵编码技术。近年来也有人将随机游走模型用于图像的显著性检测中,如Sun等人将图像左边界和上边界超像素作为随机游走模型中的吸收节点计算各超像素初始显著值,这种做法实际上是在利用边界先验性,但当显著对象出现在图像边缘时效果就不令人满意了。
本发明综合利用已存在技术的优点,解决上述技术的不足,使用Harris角点检测检测出目标区域周围的角点,即利用局部对比性构造大致包围显著区域的凸包,对凸包内超像素进行聚类,去除掉其中更可能是背景的区域,与Sun等人不同,我们以凸包中的前景区域作为吸收节点,利用随机游走模型计算各超像素的显著值,然后融合更新后的超像素前景概率和利用边界连通性得到的各超像素的背景概率得到一幅显著图,通过与其他方法比较可以发现我们的方法优于大部分现有最好的显著性检测的方法。
发明内容
本发明提出了一种结合边界连通性与局部对比性的显著性检测方法,目的在于解决上述现有技术中的不足,综合利用图像中的局部变化特征与边界连通性的特点,提出一种新的高效的图像显著性检测方法。
为了实现上述目的,本发明的技术方案为:
一种结合边界连通性与局部对比性的显著性检测方法,包括以下步骤:
第一步,使用SLIC(简单线性迭代聚类)方法将整幅图像划分为300个超像素,并计算每个超像素的平均CIELab颜色特征值;同时,利用Harris角点检测得到图像中的角点,考虑到显著对象大部分区域是不贴近边界的,移除非常靠近边界的部分角点,然后利用这些剩余的角点来构造一个大致包围显著对象的凸包。
第二步,构造凸包内精准前景区域。
2.1)使用K-means聚类算法,依据凸包内各超像素的L、A、B特征值将凸包内的超像素分为K(K>2)类。
2.2)利用边界先验,计算凸包内各超像素距边界超像素的色彩欧式距离。此处认为边界的超像素更有可能成为背景,与边界差异越大,显著值越高。在此步骤中使凸包外超像素显著值全为0,可以有效的抑制背景区域,对于凸包外可能存在的显著对象可在后面的计算中逐步添加进来。计算凸包内第k(0<k<=K)个聚类中的第i个超像素的显著值Sk(i)用公式(1)计算:
其中Nedge代表边界超像素总的个数,||ci,cj||是第i个和第j个超像素在CIELab颜色空间中的欧氏距离,σ1,β是平衡权重。
凸包中第k个聚类所在区域的显著值Sk用公式(2)计算:
其中代表第k个聚类中超像素总数量,Sk(i)代表第k个聚类中第i个超像素的显著值。
2.3)接着考虑到使用角点凸包覆盖的范围可能有些部分并不是显著对象,而是在构造凸包时添加进来的背景区域,为此下面使用公式(3)对凸包聚类进行一定的优化。若凸包内各聚类的显著值都不小于0.6则不作处理;若显著值有小于0.6的则进行归一化操作,使显著值最低的聚类区域显著值为0。
其中min(Sk)表示K个聚类中的最小显著值,max(Sk)表示K个聚类中的最大显著值,至此便得到了较为准确的前景区域。
第三步,利用随机游走模型获得各超像素显著值。
在这一步中先建立一个图模型G=(V,E),其中V代表图中所有超像素,E代表超像素间连边。在图模型中使得每个超像素与它的直接邻居还有它邻居的邻居(即两跳邻居)都相邻,另外使得所有边界的超像素彼此相邻,相邻超像素间有边相连。本发明中建立顶点V间的一个邻接矩阵其中Nsup表示超像素的数目,没有边连接的位置Wij=0,有边连接的位置权值计算如公式(4):
其中||ci,cj||表示相邻两超像素i和j之间CIELab颜色空间中的欧式距离,
在这一步中利用第二步中得到的前景区域,计算前景区域中平均显著值Save,将前景区域中超像素显著值大于0.6Save的超像素视为吸收节点,将所有超像素视为转移节点,构造随机游走模型转移矩阵P的标准格式如公式(5)所示:
其中Q表示转移节点间概率转移矩阵,Q=D-1W,Q中元素Qij表示从第i个节点转移到第j个转移节点的概率;R表示转移节点与吸收节点间的转移概率矩阵,R=D-1A,R中元素Rij表示从第i个节点转移到第j个吸收节点的概率。这里Nabsorb表示吸收节点的数目,aij表示第i个超像素与第j个吸收节点间的权值。D=D1+D2,D1是图G的度矩阵,表示邻接矩阵W中第i行的和。表示矩阵A中第i行的和。0表示Nabsorb×Nsup阶的0矩阵,I表示Nabsorb×Nabsorb阶的单位矩阵。
转移矩阵P的基本矩阵N的计算公式如公式(6):
N=(I1-Q)-1 (6)
其中I1表示与Q同维度的单位矩阵,矩阵N的每个元素Nij表示节点i经过转移节点j可以到达吸收节点的次数。
随机游走模型的吸收概率矩阵B可以表示为公式(7)所示:
B=NR (7)
其中B中每一个元素bij表示从节点i转移到吸收节点j的概率。
接下来对吸收概率矩阵B进行行排序,使得矩阵B每行从左到右递减,并取前40%的显著值相加作为每一行所对应超像素的显著值。如公式(8)所示:
其中SB(i)表示第i个超像素的显著值,表示行排序后矩阵B中第i行第j列的值,Nabsorb表示吸收节点的数目。
第四步,利用聚类内显著值传播机制优化显著图。
由于超像素显著值分别计算,可能造成即使属于同一区域的超像素间显著值不连续。为解决上述问题,本发明中我们在这一步骤中先将整幅图根据CIELab特征,使用K-means算法划分为K类(本发明中K=8),然后在每一个聚类内综合考虑其他超像素的影响来优化每个超像素的显著值。首先我们设置每个超像素i的显著值为Spro(i)=SB(i),每个超像素更新后显著值的计算公式如公式(9),公式(10)所示:
其中代表利用聚类内显著值传播机制优化后第K个聚类内第i个超像素的显著值,代表传播之前第K个聚类内第i个超像素的显著值。μ1代表自身显著值的影响权重,μ2代表与超像素在同一个聚类内其他超像素的影响权重。nk代表第k个聚类内超像素数目。表示同在第K个聚类中的第i个超像素与第j个超像素间的关联权值。表示同在第K个聚类中的第i个超像素与第j个超像素间的CIELab颜色欧式距离。表示CIELab空间中3个维度方差和的均值。
第五步,利用边界连通性计算各超像素背景概率。
5.1)计算每个区块的边界连通性,计算公式如下:
其中RGm代表图像中第m个区块,bdconn(RGm)代表第m个区域的边界连通性,SPi代表图像中第i个超像素,BD代表边界区域。
5.2)计算各区块中超像素的边界连通性。计算公式如下:
bdconn(SPi)=bdconn(RGm).(SPi∈RGm) (12)
其中超像素i的边界连通性与其所在区块的边界连通性相同。
5.3)计算各超像素的背景概率。图像中一块区域与边界区域连接的占比越大就有更大的几率是背景区域,计算公式如下:
其中bgPro(SPi)代表第i个超像素的背景概率,σ4是平衡权重。
第六步,综合边界连通性与局部对比性获得优化的显著图,计算公式如下:
其中Si,Sj(i,j=1,2,...,Nsup)为优化后的超像素显著值,cost为花费,费用函数(14)旨在使得总体花费最低。fgPro(SPi)表示超像素i的前景概率,取值为公式(9)中超像素i传播后的显著值。Wij为超像素i,j间的相似系数,
||ci,cj||为超像素i,j间CIELAB色彩空间欧氏距离。λ是常量,σ5是平衡权重。
第七步,抑制背景超像素显著值,得到最终显著图,计算公式如下:
其中S*(i)为最终显著图中第i个超像素显著值,t为显著值阈值。
本发明区别于已有方法的特色在于综合利用了局部对比度,边界连通性和边界先验等先验特征。利用Harris角点检测获取包围前景区域的凸包,并利用聚类算法去除凸包中的背景区域,将获得的前景区域作为随机游走模型的吸收节点,获取各超像素的前景概率,同时综合各区域边界连通性的特征,计算各超像素的背景概率,最后结合各超像素前景概率、背景概率得到一幅显著图,通过抑制背景超像素显著值得到最终显著图。得到的显著性检测结果更接近真值。
附图说明
图1是本发明方法的流程示意图;
图2是不同算法的显著性检测结果对比图;(a)待检测图片,(b)真值,(c)BSCA算法得到的显著性结果,(d)DSR算法得到的显著性结果,(e)HC算法得到的显著性结果,(f)HDCT算法得到的显著性结果,(g)wCO算法得到的显著性结果,(h)MR算法得到的显著性结果,(i)本发明得到的显著性检测结果。
具体实施方式
下面结合附图对本发明的实施方式进行详细说明。
实施例1
本发明在三个标准的数据库上对提出的算法进行测试:ECSSD数据库,该数据库包含了1000张图片,图片大小不同且有多种目标,其中一些图片取自非常难的伯克利300数据库。MSRA10K数据库,它是MSRA数据库的扩展,包含10000张图片,覆盖了ASD数据集中的所有1000张图片,包含了很多复杂背景的图片。DUT-OMRON数据库,该数据库中包含5168张图片,含有像素级别的真值标注,图片背景复杂,目标大小不同,具有很大的挑战性。这三个数据库都有相应的人工标定的显著性区域图。
图1是本发明方法的流程示意图;图2是本发明与其他不同算法的显著性检测结果对比图。实现本发明的具体步骤为:
第一步,使用SLIC方法将整幅图像划分为300个超像素,并计算每个超像素的平均CIELab颜色特征值;同时,利用Harris角点检测得到图像中的角点,考虑到显著对象大部分区域是不贴近边界的,我们移除非常靠近边界的部分角点,然后我们利用这些剩余的角点来构造一个大致包围显著对象的凸包。
第二步,构造精准前景区域。
2.1)使用K-means聚类算法,依据凸包内各超像素的L、A、B特征值将凸包内的超像素分为K类(K=4)。
2.2)利用边界先验,计算凸包内各超像素距边界超像素的色彩欧式距离。在此步骤中我们使凸包外超像素显著值全为0,可以有效的抑制背景区域,对于凸包外可能存在的显著对象可在后面的计算中逐步添加进来。计算凸包内第k个(本发明中k=1,2,3,4)聚类中的第i个超像素的显著值Sk(i)用公式(1)计算:
其中Nedge代表边界超像素总的个数,||ci,cj||是第i个和第j个超像素在CIELab颜色空间中的欧氏距离。我们以经验为主的设置平衡权重β=10。
凸包中第k个聚类所在区域的显著值Sk用公式(2)计算:
其中代表第k个聚类中超像素总数量,Sk(i)代表第k个聚类中第i个超像素的显著值。
2.3)接着我们考虑到使用角点凸包覆盖的范围可能有些部分并不是显著对象,而是在构造凸包时添加进来的背景区域,为此下面我们使用公式(3)对凸包聚类进行一定的优化。若凸包内各聚类的显著值都不小于0.6则不作处理;若显著值有小于0.6的则进行归一化操作,使显著值最低的聚类区域显著值为0。
其中min(Sk)表示K个聚类中的最小显著值,max(Sk)表示K个聚类中的最大显著值,至此便得到了较为准确的前景区域。
第三步,利用随机游走模型获得各超像素显著值。
在这一步中我们先建立一个图模型G=(V,E),其中V代表图中所有超像素,E代表超像素间连边。在我们的图模型中使得每个超像素与它的直接邻居还有它邻居的邻居(即两跳邻居)都相邻,另外使得所有边界的超像素彼此相邻,相邻超像素间有边相连。本发明中我们建立顶点V间的一个邻接矩阵其中Nsup表示超像素的数目,没有边连接的位置Wij=0,有边连接的位置权值计算如公式(4):
其中||ci,cj||表示相邻两超像素i和j之间CIELab颜色空间中的欧式距离,
在这一步中我们利用第二步中得到的前景区域,计算前景区域中平均显著值Save,将前景区域中超像素显著值大于0.6Save的超像素视为吸收节点,将所有超像素视为转移节点,构造随机游走模型转移矩阵P的标准格式如公式(5)所示:
其中Q表示转移节点间概率转移矩阵,Q=D-1W,Q中元素Qij表示从第i个节点转移到第j个转移节点的概率;R表示转移节点与吸收节点间的转移概率矩阵,R=D-1A,R中元素Rij表示从第i个节点转移到第j个吸收节点的概率。这里Nabsorb表示吸收节点的数目,aij表示第i个超像素与第j个吸收节点间的权值。D=D1+D2,D1是图G的度矩阵,表示邻接矩阵W中第i行的和。表示矩阵A中第i行的和。0表示Nabsorb×Nsup阶的0矩阵,I表示Nabsorb×Nabsorb阶的单位矩阵。
转移矩阵P的基本矩阵N的计算公式如公式(6):
N=(I1-Q)-1 (6)
其中I1表示与Q同维度的单位矩阵,矩阵N的每个元素Nij表示节点i经过转移节点j可以到达吸收节点的次数。
随机游走模型的吸收概率矩阵B可以表示为公式(7)所示:
B=NR (7)
其中B中每一个元素bij表示从节点i转移到吸收节点j的概率。
接下来我们对吸收概率矩阵B进行行排序,使得矩阵B每行从左到右递减,并取前40%的显著值相加作为每一行所对应超像素的显著值。如公式(8)所示:
其中SB(i)表示第i个超像素的显著值,表示行排序后矩阵B中第i行第j列的值,Nabsorb表示吸收节点的数目。
第四步,利用聚类内显著值传播机制优化显著图。
由于超像素显著值分别计算,可能造成即使属于同一区域的超像素间显著值不连续。为解决上述问题,本发明中我们在这一步骤中先将整幅图根据CIELab特征,使用K-means算法划分为K类(本发明中K=8),然后在每一个聚类内综合考虑其他超像素的影响来优化每个超像素的显著值。首先我们设置每个超像素i的显著值为Spro(i)=SB(i),每个超像素更新后显著值的计算公式如公式(9),公式(10)所示:
其中代表利用聚类内显著值传播机制优化后第K个聚类内第i个超像素的显著值,代表传播之前第K个聚类内第i个超像素的显著值。μ1代表自身显著值的影响权重,μ2代表与超像素在同一个聚类内其他超像素的影响权重,本发明中μ1,μ2我们均取值为0.5。n k代表第k个聚类内超像素数目。表示同在第K个聚类中的第i个超像素与第j个超像素间的关联权值。表示同在第K个聚类中的第i个超像素与第j个超像素间的CIELab颜色欧式距离。表示CIELab空间中3个维度方差和的均值。
第五步,利用边界连通性计算各超像素背景概率。
5.1)计算每个区块的边界连通性,计算公式如下:
其中RGm代表图像中第m个区块,bdconn(RGm)代表第m个区域的边界连通性,SPi代表图像中第i个超像素,BD代表边界区域。
5.2)计算各区块中超像素的边界连通性。计算公式如下:
bdconn(SPi)=bdconn(RGm).(SPi∈RGm) (12)
其中超像素i的边界连通性与其所在区块的边界连通性相同。
5.3)计算各超像素的背景概率。计算公式如下:
其中bgPro(SPi)代表第i个超像素的背景概率,本发明中σ4=1。
第六步,综合边界连通性与局部对比性获得优化的显著图,计算公式如下:
其中Si,Sj(i,j=1,2,...,Nsup)为优化后的超像素显著值,cost为花费,本发明中费用函数(14)旨在使得总体花费最低。fgPro(SPi)表示超像素i的前景概率,本发明中取值为公式(9)中超像素i传播后的显著值。Wij为超像素i,j间的相似系数,||ci,cj||为超像素i,j间CIELAB色彩空间欧氏距离。λ是常量,本发明中取值为0.1,σ5=10。
第七步,抑制背景超像素显著值,得到最终显著图,计算公式如下:
其中S*(i)为最终显著图中第i个超像素显著值,t为阈值,本发明中取t=0.6。
表1是本发明使用像素单位上的平均绝对误差(MAE)表示显著性图和真值之间的平均差异,在ECSSD,MSRA10K,DUT-OMRON三列表示了不同算法在这三个数据集上的结果。每列中最好的算法用*进行了标注,具体计算方法为:
其中,S为显著性图,GT为真值,H为像素个数,h代表每个像素,MAE是平均绝对误差。
表1不同算法的MAE值
表格1中展示的相当低的MAE值同样表明了本发明得到的显著性图与真值的相似性,证明了本发明的有效性。
Claims (1)
1.一种结合边界连通性与局部对比性的显著性检测方法,其特征在于,包括如下步骤:
第一步,使用SLIC方法将整幅图像划分为300个超像素,并计算每个超像素的平均CIELab颜色特征值;同时,利用Harris角点检测得到图像中的角点,移除非常靠近边界的部分角点,然后利用这些剩余的角点来构造一个大致包围显著对象的凸包;
第二步,构造凸包内精准前景区域;
2.1)使用K-means聚类算法,依据凸包内各超像素的L、A、B特征值将凸包内的超像素分为K类,K>2;
2.2)利用边界先验,计算凸包内各超像素距边界超像素的色彩欧式距离,令凸包外超像素显著值全为0,用公式(1)计算凸包内第k个聚类中的第i个超像素的显著值Sk(i),0<k<=K:
<mrow>
<msub>
<mi>S</mi>
<mi>k</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<msub>
<mi>N</mi>
<mrow>
<mi>e</mi>
<mi>d</mi>
<mi>g</mi>
<mi>e</mi>
</mrow>
</msub>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msub>
<mi>N</mi>
<mrow>
<mi>e</mi>
<mi>d</mi>
<mi>g</mi>
<mi>e</mi>
</mrow>
</msub>
</munderover>
<mfrac>
<mn>1</mn>
<msup>
<mi>e</mi>
<mrow>
<mo>-</mo>
<mfrac>
<mrow>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>c</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<msub>
<mi>c</mi>
<mi>j</mi>
</msub>
<mo>|</mo>
<mo>|</mo>
</mrow>
<mrow>
<mn>2</mn>
<msubsup>
<mi>&sigma;</mi>
<mn>1</mn>
<mn>2</mn>
</msubsup>
</mrow>
</mfrac>
<mo>+</mo>
<mi>&beta;</mi>
</mrow>
</msup>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
</mrow>
其中Nedge代表边界超像素总的个数,||ci,cj||是第i个和第j个超像素在CIELab颜色空间中的欧氏距离,σ1,β是平衡权重;
凸包中第k个聚类所在区域的显著值Sk用公式(2)计算:
<mrow>
<msub>
<mi>S</mi>
<mi>k</mi>
</msub>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<msubsup>
<mi>N</mi>
<mrow>
<mi>c</mi>
<mi>l</mi>
<mi>u</mi>
</mrow>
<mi>k</mi>
</msubsup>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msubsup>
<mi>N</mi>
<mrow>
<mi>c</mi>
<mi>l</mi>
<mi>u</mi>
</mrow>
<mi>k</mi>
</msubsup>
</munderover>
<msub>
<mi>S</mi>
<mi>k</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
</mrow>
其中代表第k个聚类中超像素总数量,Sk(i)代表第k个聚类中第i个超像素的显著值;
2.3)使用公式(3)对凸包聚类进行优化;若凸包内各聚类的显著值都不小于0.6则不作处理;若显著值有小于0.6的则进行归一化操作,使显著值最低的聚类区域显著值为0;
其中min(Sk)表示K个聚类中的最小显著值,max(Sk)表示K个聚类中的最大显著值,至此便得到了较为准确的前景区域;
第三步,利用随机游走模型获得各超像素显著值;
先建立一个图模型G=(V,E),其中V代表图中所有超像素,E代表超像素间连边;在图模型中使得每个超像素与它的直接邻居还有它邻居的邻居都相邻,另外使得所有边界的超像素彼此相邻,相邻超像素间有边相连;建立顶点V间的一个邻接矩阵其中Nsup表示超像素的数目,没有边连接的位置Wij=0,有边连接的位置权值计算如公式(4):
<mrow>
<msub>
<mi>W</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>=</mo>
<msup>
<mi>e</mi>
<mrow>
<mo>-</mo>
<mfrac>
<mrow>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>c</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<msub>
<mi>c</mi>
<mi>j</mi>
</msub>
<mo>|</mo>
<mo>|</mo>
</mrow>
<mrow>
<mn>2</mn>
<msubsup>
<mi>&sigma;</mi>
<mn>2</mn>
<mn>2</mn>
</msubsup>
</mrow>
</mfrac>
</mrow>
</msup>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>4</mn>
<mo>)</mo>
</mrow>
</mrow>
其中||ci,cj||表示相邻两超像素i和j之间CIELab颜色空间中的欧式距离,
在这一步中我们利用第二步中得到的前景区域,计算前景区域中平均显著值Save,将前景区域中超像素显著值大于0.6Save的超像素视为吸收节点,将所有超像素视为转移节点,构造随机游走模型转移矩阵P的标准格式如公式(5)所示:
<mrow>
<mi>P</mi>
<mo>=</mo>
<mfenced open = "(" close = ")">
<mtable>
<mtr>
<mtd>
<mi>Q</mi>
</mtd>
<mtd>
<mi>R</mi>
</mtd>
</mtr>
<mtr>
<mtd>
<mn>0</mn>
</mtd>
<mtd>
<mi>I</mi>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>5</mn>
<mo>)</mo>
</mrow>
</mrow>
其中Q表示转移节点间概率转移矩阵,Q=D-1W,Q中元素Qij表示从第i个节点转移到第j个转移节点的概率;R表示转移节点与吸收节点间的转移概率矩阵,R=D-1A,R中元素Rij表示从第i个节点转移到第j个吸收节点的概率;这里Nabsorb表示吸收节点的数目,aij表示第i个超像素与第j个吸收节点间的权值;D=D1+D2,D1是图G的度矩阵, 表示邻接矩阵W中第i行的和; 表示矩阵A中第i行的和;0表示Nabsorb×Nsup阶的0矩阵,I表示Nabsorb×Nabsorb阶的单位矩阵;
转移矩阵P的基本矩阵N的计算公式如公式(6):
N=(I1-Q)-1 (6)
其中I1表示与Q同维度的单位矩阵,矩阵N的每个元素Nij表示节点i经过转移节点j可以到达吸收节点的次数;
随机游走模型的吸收概率矩阵B表示为公式(7)所示:
B=NR (7)
其中B中每一个元素bij表示从节点i转移到吸收节点j的概率;
接下来对吸收概率矩阵B进行行排序,使得矩阵B每行从左到右递减,并取前40%的显著值相加作为每一行所对应超像素的显著值;如公式(8)所示:
<mrow>
<msub>
<mi>S</mi>
<mi>B</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mrow>
<mn>0.4</mn>
<msub>
<mi>N</mi>
<mrow>
<mi>a</mi>
<mi>b</mi>
<mi>s</mi>
<mi>o</mi>
<mi>r</mi>
<mi>b</mi>
</mrow>
</msub>
</mrow>
</munderover>
<msubsup>
<mi>b</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mi>S</mi>
</msubsup>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>8</mn>
<mo>)</mo>
</mrow>
</mrow>
其中SB(i)表示第i个超像素的显著值,表示行排序后矩阵B中第i行第j列的值,Nabsorb表示吸收节点的数目;
第四步,利用聚类内显著值传播机制优化显著图;
先将整幅图根据CIELab特征,使用K-means算法划分为K类,然后在每一个聚类内综合考虑其他超像素的影响来优化每个超像素的显著值;首先设置每个超像素i的显著值为Spro(i)=SB(i),每个超像素更新后显著值的计算公式如公式(9),公式(10)所示:
<mrow>
<msubsup>
<mi>S</mi>
<mrow>
<mi>p</mi>
<mi>r</mi>
<mi>o</mi>
</mrow>
<mrow>
<mo>*</mo>
<mi>K</mi>
</mrow>
</msubsup>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msub>
<mi>&mu;</mi>
<mn>1</mn>
</msub>
<msubsup>
<mi>S</mi>
<mrow>
<mi>p</mi>
<mi>r</mi>
<mi>o</mi>
</mrow>
<mi>K</mi>
</msubsup>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
<mo>+</mo>
<msub>
<mi>&mu;</mi>
<mn>2</mn>
</msub>
<mfrac>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msub>
<mi>n</mi>
<mi>k</mi>
</msub>
</munderover>
<msubsup>
<mi>W</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mi>K</mi>
</msubsup>
<msubsup>
<mi>S</mi>
<mrow>
<mi>p</mi>
<mi>r</mi>
<mi>o</mi>
</mrow>
<mi>K</mi>
</msubsup>
<mrow>
<mo>(</mo>
<mi>j</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>j</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msub>
<mi>n</mi>
<mi>k</mi>
</msub>
</munderover>
<msubsup>
<mi>W</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mi>K</mi>
</msubsup>
</mrow>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>9</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msubsup>
<mi>W</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
<mi>K</mi>
</msubsup>
<mo>=</mo>
<msup>
<mi>e</mi>
<mrow>
<mo>-</mo>
<mfrac>
<mrow>
<mo>|</mo>
<mo>|</mo>
<msubsup>
<mi>c</mi>
<mi>i</mi>
<mi>K</mi>
</msubsup>
<mo>,</mo>
<msubsup>
<mi>c</mi>
<mi>j</mi>
<mi>K</mi>
</msubsup>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
</mrow>
<mrow>
<mn>2</mn>
<msubsup>
<mi>&sigma;</mi>
<mn>3</mn>
<mn>2</mn>
</msubsup>
</mrow>
</mfrac>
</mrow>
</msup>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>10</mn>
<mo>)</mo>
</mrow>
</mrow>
其中代表利用聚类内显著值传播机制优化后第K个聚类内第i个超像素的显著值,代表传播之前第K个聚类内第i个超像素的显著值;μ1代表自身显著值的影响权重,μ2代表与超像素在同一个聚类内其他超像素的影响权重;nk代表第k个聚类内超像素数目;表示同在第K个聚类中的第i个超像素与第j个超像素间的关联权值;表示同在第K个聚类中的第i个超像素与第j个超像素间的CIELab颜色欧式距离;表示CIELab空间中3个维度方差和的均值;
第五步,利用边界连通性计算各超像素背景概率;
5.1)计算每个区块的边界连通性,计算公式如下:
<mrow>
<mi>b</mi>
<mi>d</mi>
<mi>c</mi>
<mi>o</mi>
<mi>n</mi>
<mi>n</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>RG</mi>
<mi>m</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mrow>
<mo>|</mo>
<mo>{</mo>
<msub>
<mi>SP</mi>
<mi>i</mi>
</msub>
<mo>|</mo>
<msub>
<mi>SP</mi>
<mi>i</mi>
</msub>
<mo>&Element;</mo>
<msub>
<mi>RG</mi>
<mi>m</mi>
</msub>
<mo>,</mo>
<msub>
<mi>SP</mi>
<mi>i</mi>
</msub>
<mo>&Element;</mo>
<mi>B</mi>
<mi>D</mi>
<mo>}</mo>
<mo>|</mo>
</mrow>
<msqrt>
<mrow>
<mo>|</mo>
<mo>{</mo>
<msub>
<mi>SP</mi>
<mi>i</mi>
</msub>
<mo>|</mo>
<msub>
<mi>SP</mi>
<mi>i</mi>
</msub>
<mo>&Element;</mo>
<msub>
<mi>RG</mi>
<mi>m</mi>
</msub>
<mo>}</mo>
<mo>|</mo>
</mrow>
</msqrt>
</mfrac>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>11</mn>
<mo>)</mo>
</mrow>
</mrow>
其中RGm代表图像中第m个区块,bdconn(RGm)代表第m个区域的边界连通性,SPi代表图像中第i个超像素,BD代表边界区域;
5.2)计算各区块中超像素的边界连通性;计算公式如下:
bdconn(SPi)=bdconn(RGm).(SPi∈RGm) (12)
其中超像素i的边界连通性与其所在区块的边界连通性相同;
5.3)计算各超像素的背景概率;计算公式如下:
<mrow>
<mi>b</mi>
<mi>g</mi>
<mi>P</mi>
<mi>r</mi>
<mi>o</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>SP</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mn>1</mn>
<mo>-</mo>
<msup>
<mi>e</mi>
<mrow>
<mo>-</mo>
<mfrac>
<msup>
<mrow>
<mo>&lsqb;</mo>
<mi>b</mi>
<mi>d</mi>
<mi>c</mi>
<mi>o</mi>
<mi>n</mi>
<mi>n</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>SP</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>&rsqb;</mo>
</mrow>
<mn>2</mn>
</msup>
<mrow>
<mn>2</mn>
<msubsup>
<mi>&sigma;</mi>
<mn>4</mn>
<mn>2</mn>
</msubsup>
</mrow>
</mfrac>
</mrow>
</msup>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>13</mn>
<mo>)</mo>
</mrow>
</mrow>
其中bgPro(SPi)代表第i个超像素的背景概率,σ4是平衡权重;
第六步,综合边界连通性与局部对比性获得优化的显著图,计算公式如下:
<mrow>
<mi>cos</mi>
<mi>t</mi>
<mo>=</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msub>
<mi>N</mi>
<mrow>
<mi>s</mi>
<mi>u</mi>
<mi>p</mi>
</mrow>
</msub>
</munderover>
<mi>f</mi>
<mi>g</mi>
<mi>Pr</mi>
<mi>o</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>SP</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>*</mo>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>S</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<msub>
<mi>N</mi>
<mrow>
<mi>s</mi>
<mi>u</mi>
<mi>p</mi>
</mrow>
</msub>
</munderover>
<mi>b</mi>
<mi>g</mi>
<mi>Pr</mi>
<mi>o</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>SP</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>*</mo>
<msup>
<msub>
<mi>S</mi>
<mi>i</mi>
</msub>
<mn>2</mn>
</msup>
<mo>+</mo>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
</mrow>
</munder>
<msub>
<mi>W</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<msup>
<mrow>
<mo>(</mo>
<msub>
<mi>S</mi>
<mi>i</mi>
</msub>
<mo>-</mo>
<msub>
<mi>S</mi>
<mi>j</mi>
</msub>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>14</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mi>f</mi>
<mi>g</mi>
<mi>Pr</mi>
<mi>o</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>SP</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msubsup>
<mi>S</mi>
<mrow>
<mi>p</mi>
<mi>r</mi>
<mi>o</mi>
</mrow>
<mrow>
<mo>*</mo>
<mi>k</mi>
</mrow>
</msubsup>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>15</mn>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>W</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mo>=</mo>
<msup>
<mi>e</mi>
<mrow>
<mo>-</mo>
<mfrac>
<mrow>
<mo>|</mo>
<mo>|</mo>
<msub>
<mi>c</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<msub>
<mi>c</mi>
<mi>j</mi>
</msub>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
</mrow>
<mrow>
<mn>2</mn>
<msubsup>
<mi>&sigma;</mi>
<mn>5</mn>
<mn>2</mn>
</msubsup>
</mrow>
</mfrac>
</mrow>
</msup>
<mo>+</mo>
<mi>&lambda;</mi>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>16</mn>
<mo>)</mo>
</mrow>
</mrow>
其中Si,Sj(i,j=1,2,...,Nsup)为优化后的超像素显著值,cost为花费,费用函数(14)旨在使得总体花费最低;fgPro(SPi)表示超像素i的前景概率,取值为公式(9)中超像素i传播后的显著值;Wij为超像素i,j间的相似系数,
||ci,cj||为超像素i,j间CIELAB色彩空间欧氏距离;λ是常量,σ5是平衡权重;
第七步,抑制背景超像素显著值,得到最终显著图,计算公式如下:
<mrow>
<msup>
<mi>S</mi>
<mo>*</mo>
</msup>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>S</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<msub>
<mi>S</mi>
<mi>i</mi>
</msub>
<mo>></mo>
<mi>t</mi>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msubsup>
<mi>S</mi>
<mi>i</mi>
<mn>2</mn>
</msubsup>
<mo>/</mo>
<mi>t</mi>
<mo>,</mo>
<msub>
<mi>S</mi>
<mi>i</mi>
</msub>
<mo>&le;</mo>
<mi>t</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>17</mn>
<mo>)</mo>
</mrow>
</mrow>
其中S*(i)为最终显著图中第i个超像素显著值,t为显著值阈值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711192447.3A CN107862702B (zh) | 2017-11-24 | 2017-11-24 | 一种结合边界连通性与局部对比性的显著性检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711192447.3A CN107862702B (zh) | 2017-11-24 | 2017-11-24 | 一种结合边界连通性与局部对比性的显著性检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107862702A true CN107862702A (zh) | 2018-03-30 |
CN107862702B CN107862702B (zh) | 2021-07-09 |
Family
ID=61702526
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711192447.3A Active CN107862702B (zh) | 2017-11-24 | 2017-11-24 | 一种结合边界连通性与局部对比性的显著性检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107862702B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108765384A (zh) * | 2018-05-16 | 2018-11-06 | 江苏科技大学 | 一种联合流形排序和改进凸包的显著性检测方法 |
CN108805201A (zh) * | 2018-06-08 | 2018-11-13 | 湖南宸瀚信息科技有限责任公司 | 目标图像数据集生成方法及其装置 |
CN108921833A (zh) * | 2018-06-26 | 2018-11-30 | 中国科学院合肥物质科学研究院 | 一种双向吸收的马尔可夫显著性目标检测方法及装置 |
CN109472259A (zh) * | 2018-10-30 | 2019-03-15 | 河北工业大学 | 基于能量优化的图像协同显著性检测方法 |
CN110111353A (zh) * | 2019-04-29 | 2019-08-09 | 河海大学 | 一种基于马尔可夫背景与前景吸收链的图像显著性检测方法 |
CN110853058A (zh) * | 2019-11-12 | 2020-02-28 | 电子科技大学 | 基于视觉显著性检测的高分辨率遥感影像道路提取方法 |
CN111815582A (zh) * | 2020-06-28 | 2020-10-23 | 江苏科技大学 | 改进背景先验和前景先验的二维码区域检测方法 |
CN112037109A (zh) * | 2020-07-15 | 2020-12-04 | 北京神鹰城讯科技股份有限公司 | 一种改进的基于显著性目标检测的图像水印添加方法和*** |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2075904A1 (en) * | 2006-07-05 | 2009-07-01 | Kabushiki Kaisha Toshiba | Sensorless control apparatus of synchronous machine |
CN103914834A (zh) * | 2014-03-17 | 2014-07-09 | 上海交通大学 | 一种基于前景先验和背景先验的显著性物体检测方法 |
CN106815843A (zh) * | 2016-11-30 | 2017-06-09 | 江苏城乡建设职业学院 | 一种基于凸包中心先验和马尔可夫吸收链的果实目标获取方法 |
CN107146215A (zh) * | 2017-03-30 | 2017-09-08 | 大连理工大学 | 一种基于颜色直方图和凸包的显著性检测方法 |
-
2017
- 2017-11-24 CN CN201711192447.3A patent/CN107862702B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2075904A1 (en) * | 2006-07-05 | 2009-07-01 | Kabushiki Kaisha Toshiba | Sensorless control apparatus of synchronous machine |
CN103914834A (zh) * | 2014-03-17 | 2014-07-09 | 上海交通大学 | 一种基于前景先验和背景先验的显著性物体检测方法 |
CN106815843A (zh) * | 2016-11-30 | 2017-06-09 | 江苏城乡建设职业学院 | 一种基于凸包中心先验和马尔可夫吸收链的果实目标获取方法 |
CN107146215A (zh) * | 2017-03-30 | 2017-09-08 | 大连理工大学 | 一种基于颜色直方图和凸包的显著性检测方法 |
Non-Patent Citations (5)
Title |
---|
SUN 等: "Saliency Region Detection Based on Markov Absorption Probabilities", 《IEEE TRANSACTIONS ON IMAGE PROCESSING》 * |
ZHU等: "Saliency Optimization from Robust Background Detection", 《2014 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》 * |
岳珂娟 等: "结合背景先验和对象先验的显著性检测", 《应用科学学报》 * |
王文峰等: "《MATLAB计算机视觉与机器认知》", 31 August 2017 * |
陈南而等: "采用背景先验和中心先验的图像显著性检测", 《小型微型计算机***》 * |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108765384A (zh) * | 2018-05-16 | 2018-11-06 | 江苏科技大学 | 一种联合流形排序和改进凸包的显著性检测方法 |
CN108765384B (zh) * | 2018-05-16 | 2022-07-22 | 江苏科技大学 | 一种联合流形排序和改进凸包的显著性检测方法 |
CN108805201A (zh) * | 2018-06-08 | 2018-11-13 | 湖南宸瀚信息科技有限责任公司 | 目标图像数据集生成方法及其装置 |
CN108921833A (zh) * | 2018-06-26 | 2018-11-30 | 中国科学院合肥物质科学研究院 | 一种双向吸收的马尔可夫显著性目标检测方法及装置 |
CN108921833B (zh) * | 2018-06-26 | 2022-03-25 | 中国科学院合肥物质科学研究院 | 一种双向吸收的马尔可夫显著性目标检测方法及装置 |
CN109472259B (zh) * | 2018-10-30 | 2021-03-26 | 河北工业大学 | 基于能量优化的图像协同显著性检测方法 |
CN109472259A (zh) * | 2018-10-30 | 2019-03-15 | 河北工业大学 | 基于能量优化的图像协同显著性检测方法 |
CN110111353B (zh) * | 2019-04-29 | 2020-01-24 | 河海大学 | 基于马尔可夫背景与前景吸收链的图像显著性检测方法 |
CN110111353A (zh) * | 2019-04-29 | 2019-08-09 | 河海大学 | 一种基于马尔可夫背景与前景吸收链的图像显著性检测方法 |
CN110853058A (zh) * | 2019-11-12 | 2020-02-28 | 电子科技大学 | 基于视觉显著性检测的高分辨率遥感影像道路提取方法 |
CN111815582A (zh) * | 2020-06-28 | 2020-10-23 | 江苏科技大学 | 改进背景先验和前景先验的二维码区域检测方法 |
CN111815582B (zh) * | 2020-06-28 | 2024-01-26 | 江苏科技大学 | 改进背景先验和前景先验的二维码区域检测方法 |
CN112037109A (zh) * | 2020-07-15 | 2020-12-04 | 北京神鹰城讯科技股份有限公司 | 一种改进的基于显著性目标检测的图像水印添加方法和*** |
Also Published As
Publication number | Publication date |
---|---|
CN107862702B (zh) | 2021-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107862702B (zh) | 一种结合边界连通性与局部对比性的显著性检测方法 | |
Wei et al. | Toward automatic building footprint delineation from aerial images using CNN and regularization | |
CN109829398B (zh) | 一种基于三维卷积网络的视频中的目标检测方法 | |
CN110111338B (zh) | 一种基于超像素时空显著性分割的视觉跟踪方法 | |
Zhang et al. | Estimating the 3d layout of indoor scenes and its clutter from depth sensors | |
Rouhani et al. | Semantic segmentation of 3D textured meshes for urban scene analysis | |
Jiang et al. | Deep neural networks-based vehicle detection in satellite images | |
CN105528794A (zh) | 基于混合高斯模型与超像素分割的运动目标检测方法 | |
CN105528575B (zh) | 基于上下文推理的天空检测方法 | |
CN105389584A (zh) | 基于卷积神经网络与语义转移联合模型的街景语义标注方法 | |
CN102542571B (zh) | 一种运动目标检测方法及装置 | |
CN106815323B (zh) | 一种基于显著性检测的跨域视觉检索方法 | |
CN106023257A (zh) | 一种基于旋翼无人机平台的目标跟踪方法 | |
JP2008217706A (ja) | ラベリング装置、ラベリング方法及びプログラム | |
CN101901343A (zh) | 基于立体约束的遥感影像道路提取方法 | |
CN108022244B (zh) | 一种基于前景和背景种子用于显著目标检测的超图优化方法 | |
CN103413307A (zh) | 一种基于超图的图像共分割方法 | |
CN111126459A (zh) | 一种车辆细粒度识别的方法及装置 | |
CN107146219B (zh) | 一种基于流形正则化支持向量机的图像显著性检测方法 | |
Dai et al. | Learning domain knowledge for facade labelling | |
CN106778634B (zh) | 一种基于区域融合的显著性人体区域检测方法 | |
CN111274964B (zh) | 一种基于无人机视觉显著性分析水面污染物的检测方法 | |
CN106407978B (zh) | 一种结合似物度的无约束视频中显著物体检测方法 | |
CN111091129A (zh) | 一种基于多重颜色特征流形排序的图像显著区域提取方法 | |
CN113139979A (zh) | 一种基于深度学习的边缘识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |