CN104463870A - 一种图像显著区域检测方法 - Google Patents

一种图像显著区域检测方法 Download PDF

Info

Publication number
CN104463870A
CN104463870A CN201410742968.1A CN201410742968A CN104463870A CN 104463870 A CN104463870 A CN 104463870A CN 201410742968 A CN201410742968 A CN 201410742968A CN 104463870 A CN104463870 A CN 104463870A
Authority
CN
China
Prior art keywords
pixel
super
background
image
represent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201410742968.1A
Other languages
English (en)
Inventor
卿来云
苗军
帅佳玫
黄庆明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Chinese Academy of Sciences
Original Assignee
University of Chinese Academy of Sciences
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Chinese Academy of Sciences filed Critical University of Chinese Academy of Sciences
Priority to CN201410742968.1A priority Critical patent/CN104463870A/zh
Publication of CN104463870A publication Critical patent/CN104463870A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种图像显著区域检测方法,包括:对经过超像素分割的图像进行背景估计;根据图像中每个超像素与所述背景估计中的超像素的颜色差异,得到每个超像素与背景的对比度;以及,根据每个超像素与背景的对比度得到超像素显著性图。该方法不仅对图像的背景噪声等鲁棒,而且计算简单快速。

Description

一种图像显著区域检测方法
技术领域
本发明涉及图像处理技术领域,特别涉及一种图像显著区域检测方法。
背景技术
在人类所有的感觉中,至少有70%的外界信息是通过视觉***获取的。生物视觉***,包括人类视觉***,能自动选择并注意场景中少数“相关”的位置。对于给定的输入图像,如图1(a)所示,图1(b)示出了其显著区域的标注。人眼在观察时会对前景的红花给予较多的关注,而对绿叶和其他的背景区域一扫而过。生物视觉***的这种在面对自然场景时能够迅速将注意力集中在少数几个显著的视觉对象上的过程被称为视觉注意选择。这种能力使得生物组织将其有限的感知认知资源集中于最相关的部分数据,从而使得他们能快速有效地处理大量的信号,在复杂变化的环境中生存。
如果能够将这种机制引入图像分析领域,将计算资源优先分配给那些容易引起观察者注意的显著区域,必将极大地提高现有图像分析方法的工作效率,图像显著区域检测正是在这种思想的基础上提出并发展起来的。
图像中的显著区域通常被定义成与邻域对比二者差异显著的区域。这种定义最常见的一种实现是中央-周边机制,即中央和周边差异大的区域是显著区域。这种差异可以是颜色差异、朝向差异和纹理差异等。最著名的由Itti和Koch等提出的显著区域检测模型就是先对图像进行多尺度、多方向的Gabor卷积,提取图像的颜色、亮度和朝向等特征,然后用差分高斯近似中央-周边差。在近期的研究中,Yichen Wei等人提出基于背景分布先验的方法,根据图像块到图像四周背景的测地距离的大小来估计图像块的显著性。基于背景先验的方法在一些自然图像上取得了很好的效果,如图2(a)(原始图像)和图2(b)(显著性图)所示。然而,上述方法中使用的测地距离度量方法虽然有其合理性,但在处理背景变化比较大或者纹理十分丰富的图像时,由于纹理区域对比度的累积现象,该方法对图像的显著性估计会不准确,如图2(c)(原始图像)和2(d)(显著性图)所示。
发明内容
针对现有技术中存在的问题,本发明提供一种图像显著区域检测方法,包括:
步骤1)、对经过超像素分割的图像进行背景估计;
步骤2)、根据图像中每个超像素与所述背景估计中的超像素的颜色差异,得到每个超像素与背景的对比度;
步骤3)基于每个超像素与背景的对比度得到超像素显著性图。
上述方法的步骤1)中,将所述图像中包含距离图像边界n个像素范围内的像素的超像素的集合作为背景估计,其中n为正整数。
上述方法的步骤2)中,采用以下步骤计算图像中每个超像素与背景的对比度:
步骤21)、根据下式得到该超像素与所述背景估计中所有超像素的La*b*颜色空间距离的集合:
D i = { | | c i - c j | | 2 | ∀ S j ∈ B ^ }
其中,Di表示超像素Si与背景估计中的每个超像素的La*b*颜色空间距离的集合,ci表示超像素Si的La*b*颜色,表示背景估计;
步骤22)、将该集合中的La*b*颜色空间距离按从小到大排序;
步骤23)、将该集合中前k个La*b*颜色空间距离的和作为该超像素与背景的对比度,其中k为正整数。
上述方法中,步骤3)还包括:
根据所述图像中每个超像素与所述背景估计中的超像素的测地距离,得到每个超像素的背景连通性;
对于所述图像中的每个超像素,将其与背景的对比度和背景连通性进行线性叠加;
根据线性叠加结果得到超像素显著性图。
上述方法中,对于所述图像中的每个超像素,将该超像素与其在所述背景估计中的颜色k近邻的测地距离的最小值作为该超像素的背景连通性,其中k为正整数。其中,采用以下步骤计算所述图像中每个超像素的背景连通性:
对于所述图像建立无向有权图,该图中的结点包括所述图像中的超像素与虚拟背景结点B,该图中的边E包括连接相邻超像素的内部边和连接超像素在所述背景估计中的颜色k近邻与虚拟背景结点B的外部边;
根据下式计算每个超像素的背景连通性:
Connectivity ( S i ) = min S 1 = S i , S 2 , . . . , S n = B Σ j = 1 n - 1 weight ( S j , S j + 1 ) , ∃ ( S j , S j + 1 ) ∈ E
其中,相邻两个超像素Sj、Sj+1的权重weight(Sj,Sj+1)为它们的La*b*颜色空间距离且表示如下:
weight(Sj,Sj+1)=||cj-cj+1||2
其中,cj表示超像素Sj的La*b*颜色,与虚拟背景结点B相连的超像素与虚拟背景结点B之间的权重为0。
上述方法中,对于所述图像中的每个超像素,根据下式将其与背景的对比度和背景连通性进行线性叠加:
Saliency(Si)=Constrast(Si)+α·Connectivty(Si)
其中,Saliency(Si)表示超像素Si的显著性,Constrast(Si)表示超像素Si与背景的对比度,Connectivity(Si)表示超像素Si的背景连通性,α为线性叠加的权重且是大于0小于1的数。
上述方法还可以包括:
步骤4)、对超像素显著性图进行处理,得到像素显著性图。其中,根据下式计算所述图像中每个像素的显著性,得到像素显著性图:
Saliency ( I p ) = Σ j = 1 N w pj Saliency ( S j )
其中,Saliency(IP)表示像素IP的显著性,Saliency(Sj)表示超像素Sj的显著性,权重wpj表示如下:
w pj = 1 Z i exp ( - 1 2 ( α | | c ~ p - c j | | 2 + β | | L ~ p - L j | | 2 ) )
其中,和cj分别表示像素IP和超像素Sj的La*b*颜色,和Lj分别表示像素IP和超像素Sj在所述图像中的坐标,α和β表示权重。
上述方法中,在步骤1)之前还包括:
步骤0)、对图像进行纹理模糊处理。
上述方法还包括:
步骤5)、对所得到的显著性图进行二值化处理。
采用本发明可以达到如下的有益效果:
1、检测的准确性。区别于以往使用全局或者局部对比度来定位显著物体,本发明充分利用背景分布的先验信息并且利用与背景的对比度以及连通性来检测前景,在检测准确性上有很大的提升。
2、度量的鲁棒性。在计算背景对比度时通过适当增大k能够对背景估计中的噪声更加鲁棒,并且背景连通性能够解决前景物体的部分颜色在背景中大量出现的问题。
附图说明
图1(a)和1(b)分别示出了一个示例图像及其显著性图;
图2(a)和2(b)分别示出了另一个示例图像及其显著性图;
图2(c)和2(d)分别示出了又一个示例图像及其显著性图;
图3是根据本发明一个实施例的图像显著区域检测方法的流程图;
图4(a)示出了示例的原始图像;
图4(b)是对图4(a)所示的原始图像进行纹理模糊后得到的纹理模糊图像;
图4(c)是对图4(b)的纹理模糊图像进行超像素分割得到的结果示意图;
图4(d)是对图4(c)的图像进行背景估计得到的结果示意图;
图4(e)是图(c)中每个超像素的背景对比度的示意图;
图4(f)是图(c)中每个超像素的背景连通性的示意图;
图4(g)是将图4(e)所示的背景对比度与图4(f)所示的背景连通性进行线性叠加后得到的超像素显著性图;
图4(h)是对图4(g)的超像素显著性图进行平滑上采样后得到的最终显著性图;
图5(a)是在ASD数据库上采用本发明提供的方法与现有方法的PR曲线;
图5(b)是在ASD数据库上采用本发明提供的方法与现有方法的自适应分割下的评测结果;
图6(a)是在SED2数据库上采用本发明提供的方法与现有方法的PR曲线;
图6(b)是在SED2数据库上采用本发明提供的方法与现有方法的自适应分割下的评测结果。
具体实施方式
下面结合附图和具体实施方式对本发明加以说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
根据本发明的一个实施例,提供一种图像显著区域检测方法。
概括而言,该方法包括:对经过超像素分割的图像进行背景估计;根据图像中每个超像素与背景估计中的超像素的颜色差异,得到每个超像素的背景对比度;根据每个超像素的背景对比度得到超像素显著性图。
下面将结合图3详细描述该方法的各个步骤。
第一步:对输入图像进行纹理模糊操作
为了去除图像(例如,长宽分别为H、W的输入图像I)背景中的细小变化等人眼不敏感且可能会形成累计效应进而影响计算结果的高频纹理变化,可首先对该输入图像进行纹理模糊处理。例如,对该输入图像应用结构提取方法进行纹理区域的抑制,得到纹理抑制后的图像(或称纹理模糊图像)。这种纹理部分的平滑不仅能更符合人眼的感知,而且能够使随后的超像素分割的结果更加均匀和自然。
图4(a)示出了一幅原始输入图像,在应用结构提取方法进行纹理模糊处理后,效果如图4(b)所示。
需要说明的是,这一步骤并非一定是必须的,对于不存在或具有较少的高频纹理变化的图像,或者已经进行过纹理模糊处理的输入图像,可以跳过该步骤。
第二步:对纹理模糊图像进行超像素分割
在根据第一步得到纹理抑制后的图像后,为了降低计算复杂度,接着利用现有的超像素分割算法将该图像划分为表观同质的超像素(即颜色均匀的超像素)。
例如,对于图4(b)所示的纹理模糊图像,其超像素分割的结果如图4(c)所示。
第三步:根据背景先验利用超像素分割结果进行背景估计
概括而言,根据背景分布先验估计图像的背景,得到由超像素集合表示的背景估计。
为了得到估计出的背景(即背景估计)的超像素集合,根据显著性图像的背景先验,图像四周为背景的概率非常大,因此在本文中,将图像中包含距离图像边界n个像素范围内的像素的超像素定义为该图像的背景估计,如下式所示:
B ^ = { S i | min { x , y , | W - x | , | H - y | } ≤ n , ∃ I p ∈ S i } - - - ( 1 )
其中,表示背景估计,Si表示第i个超像素,(x,y)表示像素IP在图像中的坐标,W、H分别表示输入图像的宽度和高度。n为正整数,优选地,n=10。
对于图4(c)的实施例,其背景估计的结果如图4(d)所示,在图4(d)中,最深色的部分表示背景估计。
第四步:计算每个超像素的背景对比度
如本领域普通技术人员所公知的,图像中的前景通常与背景有较大差异,而背景与上一步的背景估计的差异则相对较小,本文据此来设计度量超像素与图像背景之间的差异的方式,即超像素的背景对比度的度量方式。
在一个实施例中,要计算某个超像素的背景对比度(即超像素与背景的对比度),首先根据下式计算该超像素与背景估计中的各个超像素的La*b*颜色空间距离:
D i = { | | c i - c j | | 2 | ∀ S j ∈ B ^ } - - - ( 2 )
其中,Di表示超像素Si与背景估计中的各超像素的La*b*颜色空间距离的集合,ci表示超像素Si的La*b*颜色。
接着,对Di中的距离项进行从小到大的重新排序:
D ~ i = < d i 1 , d i 2 , . . . , d iM > , d i 1 &le; d i 2 &le; . . . &le; d iM - - - ( 3 )
其中,表示排序后的超像素Si与背景估计中的各超像素的La*b*颜色空间距离的集合;每个dim,m=1,…,M表示序号为m的距离项,其中M为背景估计中包含的超像素的数目。
对于属于背景区域(简称背景)的超像素而言,在背景估计中容易找到与其颜色十分相似的超像素,因此其的前k项的值趋于零;而对于属于前景的超像素来说,由于其与背景区域的颜色差异才使得其成为显著物体(即前景),因此其的前k项的值相对较大。基于各超像素与背景估计中的超像素的颜色差异,在一个实施例中,根据下式计算超像素的背景对比度:
Contrast ( S i ) = &Sigma; j = 1 k d ij - - - ( 4 )
其中,Constrast(Si)表示超像素Si的背景对比度,该背景对比度是超像素Si与背景估计中颜色最相近的k个超像素(或称颜色k近邻)的La*b*颜色空间距离之和。k是正整数,优选地,k=5。
根据以上计算背景对比度的方法,对图像中的每个超像素计算其与背景估计的对比度。在得到每个超像素的背景对比度之后,进行线性拉伸处理,从而可以得到相应的超像素显著性图。例如,图4(e)以超像素显著性图的形式示出了图4(d)的每个超像素的背景对比度,超像素的背景对比度值越大,在图4(e)中该超像素的亮度越低。
上述图像显著区域检测方法对于大多数图像中的显著区域检测都十分有效,并且通过适当增大k的取值,对于背景估计中的少量噪声也比较鲁棒。然而在使用该方法时,当前景中的颜色在背景估计中大量出现时,该部分前景可能会被错误检测为背景,从而影响检测的准确性。
为解决这一问题,根据本发明的一个实施例,图像显著区域检测方法还包括如下步骤:
第五步:计算每个超像素的背景连通性
通过对图像中显著前景物体的观察可以发现,由于自然图像中背景之间的过渡一般是相对平滑的,而由前景到背景的过渡则存在相对较大的变化,这种变化可以理解为物体的包围性,因此可以利用超像素到背景估计的测地距离来度量这种变化。
在一个实施例中,可将超像素与背景估计中颜色最相近的k个超像素之间的测地距离的最小值作为超像素的背景连通性。下文给出了计算该超像素背景连通性的方法:
对于输入图像,建立一个无向有权图G={V,E}。其中,G中的结点为输入图像中的超像素集合{Si}加上一个虚拟的背景结点B,即V={Si}∪{B};G中的边有两种:连接相邻超像素的内部边,以及连接超像素在背景估计中的颜色k近邻与虚拟背景结点B的外部边,即E={(Pi,Pj)|Pi与Pj相邻}∪{(Pi,B)|Pi是当前超像素在背景估计中的颜色k近邻}。优选地,k=5。
将一个超像素Si的测地距离定义为从Si出发在图G上沿最短路径到达背景结点B的累积的边权重,则超像素Si的背景连通性Connectivity(Si)表示如下:
Connectivity ( S i ) = min S 1 = S i , S 2 , . . . , S n = B &Sigma; j = 1 n - 1 weight ( S j , S j + 1 ) , &Exists; ( S j , S j + 1 ) &Element; E - - - ( 5 )
其中,相邻两个超像素Sj、Sj+1的权重weight(Sj,Sj+1)为它们的La*b*颜色空间距离,即weight(Sj,Sj+1)=||cj-cj+1||2,cj表示超像素Sj的La*b*颜色;与虚拟背景结点B相连的超像素与背景结点之间的权重为0。
在得到每个超像素的背景连通性之后,可对该背景连通性的值进行线性拉伸,从而用图进行表示。
例如,对于图4(d)给出的实施例,图4(f)示出了每个超像素的背景连通性,其中颜色越亮表示连通性的值越大。
第六步:得到超像素显著性图
在计算得到每个超像素的背景对比度与背景连通性后,通过将这两种度量方式进行线性叠加得到每个超像素的显著性,从而根据该显著性得到超像素的显著性图,如下式所示:
Saliency(Si)=Constrast(Si)+Connectivity(Si)  (6)
其中,Saliency(Si)表示超像素Si的显著性,Constrast(Si)为由公式(4)得到的超像素Si的背景对比度,Connectivity(Si)为公式(5)得到的超像素Si的背景连通性。α为线性叠加的权重且是大于0小于1的数,优选地,α∈[0.3,0.6]。
对于图4(e)和4(f)所示背景对比度与背景连通度,两种度量方式线性叠加后的结果如图4(g)所示。
第七步:对超像素显著性图进行处理得到最终的像素显著性图
由于上述叠加后得到的显著性图仍以超像素为基本单位,要得到更精确的由像素表示的显著性图,可根据原图中像素的颜色与位置信息对超像素显著性图做后处理,例如执行类似于上采样的平滑操作得到每个像素的显著性,如下式所示:
Saliency ( I p ) = &Sigma; j = 1 N w pj Saliency ( S j ) - - - ( 7 )
其中,Saliency(IP)表示像素IP的显著性,Saliency(Sj)表示超像素Sj的显著性,平滑的权重wpj计算表示如下:
w pj = 1 Z i exp ( - 1 2 ( &alpha; | | c ~ p - c j | | 2 + &beta; | | L ~ p - L j | | 2 ) ) - - - ( 8 )
其中,和cj分别为像素IP和超像素Sj的La*b*颜色向量,和Lj分别为像素IP和超像素Sj在图像中的坐标向量,α和β分别表示对颜色和位置的权重,优选地,α=1/30,β=1/30。
对于图4(g)的超像素显著性图,图4(h)给出了对其进行后处理后得到的最终的像素显著性图。
在进一步的实施例中,还可以根据具体应用对所得到的显著性图做进一步处理,例如进行二值化,从而更凸显图像中的显著区域。
上述方法根据人类视觉***对图像中的高频信息(例如图像中背景纹理的细小变化)不敏感的事实,利用图像中背景分布的先验,针对显著物体的视觉特性结合背景对比度和背景连通性检测图像中的显著区域,其能够有效地检测显著物体并减少累积现象。
为验证本发明提供的图像显著区域检测方法的有效性,发明人用显著区域检测问题惯用的评估方法在ASD数据库和SED2数据库上进行了实验,实验采用如下两个评测指标:precision-recall曲线和显著性图进行自适应阈值分割结果的精度(precision),召回率(recall)与F值(F-measure)的对比。
在ASD数据库上的实验和评测结果如下:
ASD数据库是MSRA数据库的一个子集,包含了1000幅测试图像,每张图像对应有人工的像素级的显著性标注。在ASD数据库上,将本发明提出的背景对比度与背景连通性融合后的显著区域检测方法和11种当前最好的显著区域检测方法进行了对比。这6种方法分别是:FT方法、RC方法、GS方法、SF方法、GC方法、MC方法,本发明提供的方法简写为TB方法。各种方法产生的显著性图在ASD数据库上的评测结果如图5(a)和5(b)所示。从图中可见,本发明提供的检测方法达到了与当前方法可比的结果。
在SED2数据库上的实验和评测结果如下:
SED2数据库是一个每幅图像中包括两个显著物体的数据库。数据库中包含100幅图像,并且提供了对应的精确地人工标注的前景像素。在SED2数据库上,将本发明提供的检测方法和6种当前较好的显著区域检测方法进行了对比。这10种方法分别是:FT方法、RC方法、SF方法、GC方法、MC方法,本发明提供的方法简写为TB方法。各种方法产生的显著性图在SED2数据库上的评测结果如图6(a)和6(b)所示。从图中可见,本发明提供的方法取得了该数据库上最好的实验结果,其中自适应阈值分割后的F-measure指标相比现有方法中的最好结果提升了3.6个百分点。应该注意到并理解,在不脱离后附的权利要求所要求的本发明的精神和范围的情况下,能够对上述详细描述的本发明做出各种修改和改进。因此,要求保护的技术方案的范围不受所给出的任何特定示范教导的限制。

Claims (11)

1.一种图像显著区域检测方法,包括:
步骤1)、对经过超像素分割的图像进行背景估计;
步骤2)、根据图像中每个超像素与所述背景估计中的超像素的颜色差异,得到每个超像素与背景的对比度;
步骤3)基于每个超像素与背景的对比度得到超像素显著性图。
2.根据权利要求1所述的方法,其中,在步骤1)中,将所述图像中,包含距离图像边界n个像素范围内的像素的超像素的集合作为背景估计,其中n为正整数。
3.根据权利要求1或2所述的方法,其中,在步骤2)中,采用以下步骤计算图像中每个超像素与背景的对比度:
步骤21)、根据下式得到该超像素与所述背景估计中所有超像素的La*b*颜色空间距离的集合:
D i = { | | c i - c j | | 2 | &ForAll; S j &Element; B ^ }
其中,Di表示超像素Si与背景估计中的每个超像素的La*b*颜色空间距离的集合,ci表示超像素Si的La*b*颜色,表示背景估计;
步骤22)、将该集合中的La*b*颜色空间距离按从小到大排序;
步骤23)、将该集合中前k个La*b*颜色空间距离的和作为该超像素与背景的对比度,其中k为正整数。
4.根据权利要求1或2所述的方法,其中,步骤3)还包括:
根据所述图像中每个超像素与所述背景估计中的超像素的测地距离,得到每个超像素的背景连通性;
对于所述图像中的每个超像素,将其与背景的对比度和背景连通性进行线性叠加;
根据线性叠加结果得到超像素显著性图。
5.根据权利要求4所述的方法,其中,对于所述图像中的每个超像素,将该超像素与其在所述背景估计中的颜色k近邻的测地距离的最小值作为该超像素的背景连通性,其中k为正整数。
6.根据权利要求5所述的方法,其中,采用以下步骤计算所述图像中每个超像素的背景连通性:
对于所述图像建立无向有权图,该图中的结点包括所述图像中的超像素与虚拟背景结点B,该图中的边E包括连接相邻超像素的内部边和连接超像素在所述背景估计中的颜色k近邻与虚拟背景结点B的外部边;
根据下式计算每个超像素的背景连通性:
Connectivity ( S i ) = min S 1 = S 1 , S 2 , . . . , S n = B &Sigma; j = 1 n - 1 weigth ( S j , S j + 1 ) , &Exists; ( S j , S j + 1 ) &Element; E
其中,相邻两个超像素Sj、Sj+1的权重weight(Sj,Sj+1)为它们的La*b*颜色空间距离且表示如下:
weight(Sj,Sj+1)=||cj-cj+1||2
其中,cj表示超像素Sj的La*b*颜色,与虚拟背景结点B相连的超像素与虚拟背景结点B之间的权重为0。
7.根据权利要求4所述的方法,其中,对于所述图像中的每个超像素,根据下式将其与背景的对比度和背景连通性进行线性叠加:
Saliency(Si)=Constrast(Si)+α·Connectivity(Si)
其中,Saliency(Si)表示超像素Si的显著性,Constrast(Si)表示超像素Si与背景的对比度,Connectivity(Si)表示超像素Si的背景连通性,α为线性叠加的权重且是大于0小于1的数。
8.根据权利要求1或2所述的方法,还包括:
步骤4)、对超像素显著性图进行处理,得到像素显著性图。
9.根据权利要求8所述的方法,其中,根据下式计算所述图像中每个像素的显著性,得到像素显著性图:
Saliency ( I p ) = &Sigma; j = 1 N w pj Saliency ( S j )
其中,Saliency(IP)表示像素IP的显著性,Saliency(Sj)表示超像素Sj的显著性,权重wpj表示如下:
w pj = 1 Z i exp ( - 1 2 ( &alpha; | | c ~ p - c j | | 2 + &beta; | | L ~ p - L j | | 2 ) )
其中,和cj分别表示像素IP和超像素Sj的La*b*颜色,和Lj分别表示像素IP和超像素Sj在所述图像中的坐标,α和β表示权重。
10.根据权利要求1或2所述的方法,其中,在步骤1)之前还包括:
步骤0)、对图像进行纹理模糊处理。
11.根据权利要求8所述的方法,还包括:
步骤5)、对所得到的显著性图进行二值化处理。
CN201410742968.1A 2014-12-05 2014-12-05 一种图像显著区域检测方法 Pending CN104463870A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410742968.1A CN104463870A (zh) 2014-12-05 2014-12-05 一种图像显著区域检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410742968.1A CN104463870A (zh) 2014-12-05 2014-12-05 一种图像显著区域检测方法

Publications (1)

Publication Number Publication Date
CN104463870A true CN104463870A (zh) 2015-03-25

Family

ID=52909852

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410742968.1A Pending CN104463870A (zh) 2014-12-05 2014-12-05 一种图像显著区域检测方法

Country Status (1)

Country Link
CN (1) CN104463870A (zh)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104809729A (zh) * 2015-04-29 2015-07-29 山东大学 一种鲁棒的图像显著性区域自动分割方法
CN105654475A (zh) * 2015-12-25 2016-06-08 中国人民解放军理工大学 基于可区分边界和加权对比度的图像显著性检测方法及其装置
CN105913427A (zh) * 2016-04-12 2016-08-31 福州大学 一种基于机器学习的噪声图像显著性检测方法
CN105931241A (zh) * 2016-04-22 2016-09-07 南京师范大学 一种自然场景图像的自动标注方法
CN106127197A (zh) * 2016-04-09 2016-11-16 北京交通大学 一种基于显著标签排序的图像显著性目标检测方法
CN106780505A (zh) * 2016-06-20 2017-05-31 大连民族大学 基于区域能量的超像素显著目标检测算法
CN106919950A (zh) * 2017-01-22 2017-07-04 山东大学 概率密度加权测地距离的脑部mr图像分割方法
CN107146258A (zh) * 2017-04-26 2017-09-08 清华大学深圳研究生院 一种图像显著区域检测方法
CN107194886A (zh) * 2017-05-03 2017-09-22 深圳大学 一种用于相机传感器的灰尘检测方法及装置
CN107527350A (zh) * 2017-07-11 2017-12-29 浙江工业大学 一种面向视觉特征退化图像的固废对象分割方法
CN107730515A (zh) * 2017-10-12 2018-02-23 北京大学深圳研究生院 基于区域增长和眼动模型的全景图像显著性检测方法
CN108573506A (zh) * 2017-03-13 2018-09-25 北京贝塔科技股份有限公司 图像处理方法及***
CN109448015A (zh) * 2018-10-30 2019-03-08 河北工业大学 基于显著图融合的图像协同分割方法
CN110084782A (zh) * 2019-03-27 2019-08-02 西安电子科技大学 基于图像显著性检测的全参考图像质量评价方法
CN111091129A (zh) * 2019-12-24 2020-05-01 沈阳建筑大学 一种基于多重颜色特征流形排序的图像显著区域提取方法
CN112037109A (zh) * 2020-07-15 2020-12-04 北京神鹰城讯科技股份有限公司 一种改进的基于显著性目标检测的图像水印添加方法和***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103136766A (zh) * 2012-12-28 2013-06-05 上海交通大学 一种基于颜色对比和颜色分布的物体显著性检测方法
CN103208115A (zh) * 2013-03-01 2013-07-17 上海交通大学 基于测地线距离的图像显著性区域检测方法
CN104103082A (zh) * 2014-06-06 2014-10-15 华南理工大学 一种基于区域描述和先验知识的图像显著性检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103136766A (zh) * 2012-12-28 2013-06-05 上海交通大学 一种基于颜色对比和颜色分布的物体显著性检测方法
CN103208115A (zh) * 2013-03-01 2013-07-17 上海交通大学 基于测地线距离的图像显著性区域检测方法
CN104103082A (zh) * 2014-06-06 2014-10-15 华南理工大学 一种基于区域描述和先验知识的图像显著性检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
刘明媚: "基于区域的超像素显著性检测", 《中国优秀硕士学位论文全文数据库信息科技辑》 *
王飞: "基于上下文和背景的视觉显著性检测", 《中国优秀硕士学位论文全文数据库信息科技辑》 *

Cited By (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104809729B (zh) * 2015-04-29 2018-08-28 山东大学 一种鲁棒的图像显著性区域自动分割方法
CN104809729A (zh) * 2015-04-29 2015-07-29 山东大学 一种鲁棒的图像显著性区域自动分割方法
CN105654475B (zh) * 2015-12-25 2018-07-06 中国人民解放军理工大学 基于可区分边界和加权对比度的图像显著性检测方法及其装置
CN105654475A (zh) * 2015-12-25 2016-06-08 中国人民解放军理工大学 基于可区分边界和加权对比度的图像显著性检测方法及其装置
CN106127197A (zh) * 2016-04-09 2016-11-16 北京交通大学 一种基于显著标签排序的图像显著性目标检测方法
CN106127197B (zh) * 2016-04-09 2020-07-07 北京交通大学 基于显著标签排序的图像显著性目标检测方法和装置
CN105913427A (zh) * 2016-04-12 2016-08-31 福州大学 一种基于机器学习的噪声图像显著性检测方法
CN105931241A (zh) * 2016-04-22 2016-09-07 南京师范大学 一种自然场景图像的自动标注方法
CN105931241B (zh) * 2016-04-22 2018-08-21 南京师范大学 一种自然场景图像的自动标注方法
CN106780505A (zh) * 2016-06-20 2017-05-31 大连民族大学 基于区域能量的超像素显著目标检测算法
CN106780505B (zh) * 2016-06-20 2019-08-27 大连民族大学 基于区域能量的超像素显著目标检测方法
CN106919950A (zh) * 2017-01-22 2017-07-04 山东大学 概率密度加权测地距离的脑部mr图像分割方法
CN106919950B (zh) * 2017-01-22 2019-10-25 山东大学 概率密度加权测地距离的脑部mr图像分割方法
CN108573506A (zh) * 2017-03-13 2018-09-25 北京贝塔科技股份有限公司 图像处理方法及***
CN107146258A (zh) * 2017-04-26 2017-09-08 清华大学深圳研究生院 一种图像显著区域检测方法
CN107194886B (zh) * 2017-05-03 2020-11-10 深圳大学 一种用于相机传感器的灰尘检测方法及装置
CN107194886A (zh) * 2017-05-03 2017-09-22 深圳大学 一种用于相机传感器的灰尘检测方法及装置
CN107527350A (zh) * 2017-07-11 2017-12-29 浙江工业大学 一种面向视觉特征退化图像的固废对象分割方法
CN107527350B (zh) * 2017-07-11 2019-11-05 浙江工业大学 一种面向视觉特征退化图像的固废对象分割方法
CN107730515A (zh) * 2017-10-12 2018-02-23 北京大学深圳研究生院 基于区域增长和眼动模型的全景图像显著性检测方法
CN107730515B (zh) * 2017-10-12 2019-11-22 北京大学深圳研究生院 基于区域增长和眼动模型的全景图像显著性检测方法
WO2019071976A1 (zh) * 2017-10-12 2019-04-18 北京大学深圳研究生院 基于区域增长和眼动模型的全景图像显著性检测方法
CN109448015A (zh) * 2018-10-30 2019-03-08 河北工业大学 基于显著图融合的图像协同分割方法
CN110084782A (zh) * 2019-03-27 2019-08-02 西安电子科技大学 基于图像显著性检测的全参考图像质量评价方法
CN110084782B (zh) * 2019-03-27 2022-02-01 西安电子科技大学 基于图像显著性检测的全参考图像质量评价方法
CN111091129A (zh) * 2019-12-24 2020-05-01 沈阳建筑大学 一种基于多重颜色特征流形排序的图像显著区域提取方法
CN111091129B (zh) * 2019-12-24 2023-05-09 沈阳建筑大学 一种基于多重颜色特征流形排序的图像显著区域提取方法
CN112037109A (zh) * 2020-07-15 2020-12-04 北京神鹰城讯科技股份有限公司 一种改进的基于显著性目标检测的图像水印添加方法和***

Similar Documents

Publication Publication Date Title
CN104463870A (zh) 一种图像显著区域检测方法
Kim et al. Adaptive smoothness constraints for efficient stereo matching using texture and edge information
CN109086724B (zh) 一种加速的人脸检测方法及存储介质
CN103136766B (zh) 一种基于颜色对比和颜色分布的物体显著性检测方法
CN103077531B (zh) 基于边缘信息的灰度目标自动跟踪方法
CN106991686B (zh) 一种基于超像素光流场的水平集轮廓跟踪方法
CN103996198A (zh) 复杂自然环境下感兴趣区域的检测方法
CN104574366A (zh) 一种基于单目深度图的视觉显著性区域的提取方法
CN103413303A (zh) 基于联合显著性的红外目标分割方法
Hua et al. Extended guided filtering for depth map upsampling
CN103745468A (zh) 一种基于图结构和边界先验的显著性物体检测方法
US11042986B2 (en) Method for thinning and connection in linear object extraction from an image
CN104899892A (zh) 一种快速的星图图像星点提取方法
CN104966285A (zh) 一种显著性区域的检测方法
CN106355608A (zh) 基于可变权重代价计算与S‑census变换的立体匹配方法
CN107705313A (zh) 一种遥感图像舰船目标分割方法
CN106778767B (zh) 基于orb和主动视觉的视觉图像特征提取及匹配方法
CN104866853A (zh) 一种足球比赛视频中的多运动员的行为特征提取方法
CN103514610B (zh) 一种背景静止的运动目标分割方法
CN103679740B (zh) 一种无人机对地目标roi提取方法
CN105118051A (zh) 一种应用于静态图像人体分割的显著性检测方法
CN109242854A (zh) 一种基于flic超像素分割的图像显著性检测方法
CN105023264A (zh) 一种结合对象性和背景性的红外图像显著特征检测方法
CN105354547A (zh) 一种结合纹理和彩色特征的行人检测方法
CN104050674B (zh) 一种显著性区域检测方法及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20150325

WD01 Invention patent application deemed withdrawn after publication