CN104240256A - 一种基于层次化稀疏建模的图像显著性检测方法 - Google Patents

一种基于层次化稀疏建模的图像显著性检测方法 Download PDF

Info

Publication number
CN104240256A
CN104240256A CN201410499111.1A CN201410499111A CN104240256A CN 104240256 A CN104240256 A CN 104240256A CN 201410499111 A CN201410499111 A CN 201410499111A CN 104240256 A CN104240256 A CN 104240256A
Authority
CN
China
Prior art keywords
remarkable
sub
block
image
yardstick
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410499111.1A
Other languages
English (en)
Other versions
CN104240256B (zh
Inventor
杨淑媛
焦李成
王士刚
张凯
侯彪
刘红英
马晶晶
马文萍
熊涛
刘赵强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201410499111.1A priority Critical patent/CN104240256B/zh
Publication of CN104240256A publication Critical patent/CN104240256A/zh
Application granted granted Critical
Publication of CN104240256B publication Critical patent/CN104240256B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于层次化稀疏建模的图像显著性检测方法,主要解决在计算机视觉领域内通过模拟灵长类动物的视觉注意机制,在复杂场景中迅速定位感兴趣区域以进行快速场景分析的问题,其主要步骤包括:(1)构造基于颜色和方向信息的多尺度特征图;(2)创建基于逐层自表示建模的颜色显著图;(3)形成基于多尺度信息融合的显著图;(4)提取基于Otsu最优阈值分割的显著物体。本发明具有较高的检测率和较低的虚警率,并取得了较经典显著检测方法更优的性能,可以用于图像分割等领域。

Description

一种基于层次化稀疏建模的图像显著性检测方法
技术领域
本发明属于计算机视觉研究领域,具体是一种基于层次化稀疏建模的图像显著性检测方法,可用于模拟灵长类动物的视觉注意机制,对场景的显著区域进行提取和分析。
背景技术
灵长类动物在有限的神经元处理速度下可以对复杂场景实现实时高效的解译,归因于它们所特有的视觉注意机制。Itti等人的视觉注意理论将视觉注意模型分为两个阶段:快速的、潜意识的、自底向上的、数据驱动的显著性提取;以及慢速的、基于任务的、自顶向下的、目标驱动的显著性提取。本发明受生物视觉注意机制中层次化感知特点的启发,通过逐层稀疏建模的方式建立起视觉显著性的计算框架。在计算机视觉领域,显著图可以对感兴趣物体的提取、目标识别、自适应压缩和图像检索等应用提供支持,具有重要的意义。
目前,显著性检测可大致分为3个研究方向,即基于人眼跟踪的聚焦点预测、显著物体提取和显著物体估计。人眼聚焦模型旨在预测人在观察场景时所关注的特定点,显著物体检测旨在从场景中发现感兴趣物体并且将其从整个内容中分割出来,显著物体估计旨在用一小组边界盒来定位出显著物体的区域,以提高传统滑动窗口的在物体定位上的效率。显著物体提取的现有方法可以被大致分为基于生物启发的、基于纯计算的和两者结合的。多数的方法一般都通过比较图像区域和它们周围区域在亮度、颜色和方向上的相对差异来进行显著性的度量。
生物启发的显著性检测方法中最具代表性的是1998年Itti等人所提出的模型。Itti的显著检测方法基于Koch等人提出的用特征集成理论来解释人类视觉搜索策略的生物结构模型。视觉输入被分为亮度通道、红绿和蓝黄颜色通道、Gabor方向通道,不同的空间位置在每幅图中竞争显著性使得只有与局部相比突出的位置可以被保持。所有通道上得到的特征图依据自底向上的方式来融合成最终的显著图。这种模型用动态高斯金字塔来产生9个尺度的图像,通过线性的中心周围差异操作来模拟视觉接收场的特性,并提出了符合视觉皮层的显著图归一化方法,得到了较为理想的结果。
纯计算的显著性检测方法没有太多生物视觉原理上的支持,但大多都有坚实的理论框架支持,其中以Hou等人在2007年所提出的基于谱残差和2012年基于图像符号的谱理论最具代表性。谱残差从信息论的观点出发将图像分为Innovation和Prior Knowledge两部分,并结合自然图像在log-log尺度上所呈现出的线性特性,认为显著性部分是平滑的log-log曲线以外的部分。借助于对图像谱域的平滑结果来逼近Prior Knowledge的谱,最终的显著部分的谱是原图的谱和Prior Knowledge的谱之差,并取残差谱的傅里叶逆变换来得到最终的显著图。这种方法计算得到的为低分辨的显著图,并且倾向于突出图像中的边缘部分。给定一幅输入图像I(x),其计算过程如下。
L(f)=log(A(f)),
R(f)=L(f)-hn(f)*L(f),
S(x)=g(x)*Γ-1[exp(R(f)+P(f))]2.
其中,Γ和Γ-1表示傅里叶变换和逆变换,表示取幅值和相位操作,hn(f)和g(x)表示频域和空域的滤波算子。
图像符号的显著检测方法将一幅图像建模为前景(显著区域)和背景(非显著区域)两部分,通过严谨的数学推导得出了显著图和图像符号的DCT反变换之间存在着很强的关联性结论。其前提假设为显著区域在空域是稀疏的,而非显著区域在DCT域是稀疏的,并且前景是服从高斯分布的。这个假设在实际情况下是能够得到较好满足的,具有很强的指导意义。首先,图像符号经过DCT逆变换后的结果和其中的前景部分具有相似性下界,即经符号函数后背景部分被极大压缩,具体关系如下所示。
E ( < f &OverBar; , x &OverBar; > | | f &OverBar; | | | | x &OverBar; | | ) &GreaterEqual; 0.5 , for | &Omega; b | < N 6 - - - 1 )
其中,|Ωb|表示背景在DCT域的非零元素个数,N为图像中像素总数。上式说明只要背景在DCT域的非零元素个数足够少,就有很强的相似性。其次,落在f中非零位置的比例有下界,即保持了显著图的大部分信息,具体关系如下所示。
E ( &alpha; &alpha; 2 + &beta; 2 ) &GreaterEqual; 2 &pi; &ap; 0.7979 where&alpha; = &Sigma; i &Element; T f ( f &OverBar; i ) 2 , &beta; = &Sigma; i &NotElement; T f ( f &OverBar; i ) 2
其中,Tf是f中非零位置的索引。上式说明只要f服从正态分布,那么和f的相似度至少为0.7979。如此,结合上面两个结论便可得出图像符号理论的最终结论:以很大的可能性逼近f,用图像符号的DCT逆变换就可以代表图像的显著图。
生物模型和计算模型相结合的方法中代表性的为Harel等人于2006年提出的GBVS。此方法按照Itti的方法构建特征图,在显著图的构建和融合的过程中使用了马尔科夫随机场模型。它将图像中所有位置表示成状态节点,各个节点之间的转移概率由它们的特征不相似度和空间距离来决定。***从随机初始状态出发,经过一定次数的迭代之后达到稳定状态,用此终态来描述各个位置为显著的概率。在归一化过程中为了将显著性聚集起来形成显著区域,任意两个节点的状态转移概率依赖于两者的空间距离和到达节点的显著概率。经过马尔科夫随机场的转移过程之后便得到最终的显著图描述,具有符合实际情况和灵活的计算模式。
除以上显著性检测方法外,通过稀疏建模来寻找代表性元素的思想在机器学习领域引起了广泛的关注。一组数据可以通过其中一个很小的子集来进行线性组合得到,这个子集里面的元素即为代表性元素,它们一般都具有独特的结构。在代表元素数量的足够少的限制下,通过求解如下的优化问题便可以的到选出的代表元素和组合系数。
min | | Y - YC | | F 2 s . t . | | C | | row , 0 &le; k
其中,Y和C分别为原始数据集合表示系数,k为很小的正整数用以约束选出的代表元素个数足够少。对于原始数据Y没有低秩的要求,但是如果Y具有低秩特性,那么选出的代表元素为低秩集中的一小部分元素。此方法在样例维进行了数据将维,得到了更加简洁和紧凑的数据表示,并且在代表视频帧的选取中表现出了较好的性能,同时在分类和聚类方面也显示出了一定的优势。
现有显著检测方法在定位感兴趣区域时存在着较多的漏检和较大的虚警率,同时图像稀缺性和显著性之间的内在联系并没有被充分挖掘来解决显著检测的问题。通过自表示模型选取代表性元素的理论与视觉的选择注意特性之间的存在的耦合性有待深入研究。
发明内容
本发明的目的在于通过模拟生物视觉注意机制中存在的稀疏特性,提出一种基于层次化稀疏建模的多尺度显著性检测方法。借助于视觉的层次化注意模型,实现由粗到细的逐层稀疏建模,在不同的层次范围内对图像中的显著特性进行量化。同时模拟视觉的尺度化认知特性,在多个尺度上来观察图像的显著性,得到不同尺度上的显著描述结果。最后,通过适当的融合策略实现高效的显著性度量,并将显著区域从场景中分离出来以进行快速场景分析。
本发明的技术方案是:一种基于层次化稀疏建模的图像显著性检测方法,包括如下步骤:
(1)基于颜色和方向信息的多尺度特征图构造:
1a)将一幅输入图像在水平方向和垂直方向上隔行隔列采样,形成大小为原图1/2的低分辨率图像,对此低分辨率图像继续进行下采样,得到大小为原图1/4的更低分辨率的图像,将原图和这两幅降采样后的图像作为3个尺度上的输入图像;
1b)对于3个尺度上的输入图像,将红绿蓝三个彩色通道作为颜色特征图的元素,用于稀疏建模的特征,对于每一个尺度上输入图像的亮度图,使用Gabor滤波器在0,45,90和135度四个方向上对其进行方向滤波得到描述图像方向信息的四幅方向滤波图,作为后续方向显著图的基础;
(2)基于逐层自表示建模的颜色显著图创建:
2a)将3个尺度上输入图像的颜色特征图按照16*16的分块大小无重叠地分为大小相同的子块,每一个子块作为显著性描述的基本单元;
2b)按照自表示模型的数据组织形式,把每个子块的所有颜色特征组合起来并形成一个代表子块结构特性的特征向量,所有子块的特征向量依次排列成为一个大的矩阵作为自表示模型中的原始数据矩阵Y;
2c)将数据矩阵Y作为优化问题
min &lambda; | | C | | 1 , q + 1 2 | | Y k 1 - Y k 1 C | | F 2 s . t . 1 &gamma; C = 1 &gamma;
的输入,使用交替乘子方向ADMM优化算法求解此自表示模型的解,优化算法中对系数矩阵C施加行稀疏的约束,以用尽量少的元素来表示所有数据;经过多次迭代之后便会得到自表示模型的解;按照所提出的显著性和稀疏系数之间的求解公式得到每个子块在第一层次的显著描述,
s i = &Sigma; j = 1 V | C ij | , i = 1,2 , . . . V
其中,si表示第i个子块的显著值,Cij为系数矩阵中第i行j列的元素,V为子块的个数;
2d)对于第1个尺度上的各子块,将其显著值和所有子块显著值均值的2倍做比较,如果小于均值的2倍则认为此子块在第1个尺度上是非显著的,否则认为是显著的;在第2个层次上丢弃那些被认为是非显著的子块,对每一个显著的子块进行进一步的自表示建模;
2e)将每个显著子块进一步分割为大小为8*8的更小的子块,并将对应的颜色特征组织成自表示模型的数据矩阵,经过ADMM优化算法优化求解之后会得到进一步分割后的各子块的稀疏系数;
(3)基于多尺度信息融合的显著图形成:
3a)经过以上步骤之后,在每个尺度上形成了两幅颜色显著图和四幅方向滤波图,将两幅不同层次上得到的颜色显著图相加形成每个尺度上的颜色显著图,代表图像逐层递进的颜色显著信息;同时将四幅方向滤波图也相加形成每个尺度上的方向显著图,代表每个尺度上图像的边缘显著信息;
3b)将每个尺度上得到的颜色显著图和方向显著图进行归一化操作,使得两者具有相同的描述范围,之后对以上结果相加形成每个尺度上融合后的显著图,用以表示特定尺度上所得到的显著描述结果;
3c)最后将3个尺度上的显著图进行尺度上的统一,亦即将每一幅显著图调整到原始图像的大小,通过对所有的结果按位置求平均便可以得到最终的显著图;
(4)基于Otsu最优阈值分割的显著物体提取:
4a)将通过以上步骤所得显著图的灰度级范围调整在0到255的8位灰度级下,运用具有二值分割效果的Otsu算法对其进行分割,得到前景和背景区域,前景区域为在此规则下得到的显著区域,背景是非显著区域;
4b)根据分割后的索引图像,从原图中提取出前景部分的区域,将背景部分的区域设为黑色,自此便完成了显著检测的所有阶段,之后用受试者运行曲线、正确率召回率曲线和平均正确率、召回率及F-measure值常用数字评价指标对所得显著图的好坏进行客观评价,并和经典的显著检测算法进行比较验证其有效性。
上述步骤(2)中的2d)步骤所述的对每一个显著的子块进行进一步的自表示建模,其具体方法如下:
将显著值大于平均值Th倍的子块保留用作下一层的自表示建模,并舍弃其余子块,按照如下的准则进行子块的取舍:
if s i 1 / H &Sigma; j = 1 H s j &GreaterEqual; Th label i = 1
else       labeli=0
其中,Th为预设的阈值,将其设定为2,labeli表示第i个子块是否被保留,如果为1则表明保留,并进行下一层的自表示建模,为0则表示舍弃此子块。
本发明的有益效果:本发明将颜色信息和方向信息作为显著性检测的特
征,构建起不同尺度和层次上的特征组合。对于颜色显著图按照基于分块的方式来组合特征,并用自表示的方法进行层次化稀疏建模得到不同层次上的颜色显著图。而方向显著图则通过对Gabor滤波器在4个角度滤波后的结果进行融合而获得,用以描述显著图中的方向信息。最后将多个尺度上的显著图进行融合后形成最终的描述各个位置相对显著程度的显著图。本发明与现有技术相比具有以下优点:
1、本发明着眼于显著性所源于的稀缺特性,通过用自表示的稀疏建模方式建立起显著性和稀疏性之间的关联,并用稀疏表示系数刻画显著程度。用颜色和方向特征图所建立的计算模型符合生物视觉显著特性,有较为完备的理论支撑。
2、本发明采用层次化的渐进建模方式,能在不同的范围内对各个位置的显著性以区域为单位进行描述,使得算法对于显著范围的变化具有鲁棒性。同时,多尺度观测的方式可获得不同尺度下显著性的信息,对前景尺寸的变化有很好的适应性。通过尺度化、层次化的观测方式克服了传统显著检测方法对于边缘的依赖性,并在均匀显著区域的描述上获得了较为一致的效果。
附图说明
图1是本发明的流程图;
图2是本发明在两个层次上得到的显著图和提取的显著物体示例;
图3是本发明在三个尺度上得到的显著图和最终融合后的显著图示例;
图4是本发明和其它4个对比方法在Hou的测试数据集上得到的显著图示例(4个对比方法依次为IT、SR、FT和GB);
图5是本发明和其它4个对比方法用Otsu算法对图4的显著图分割后提取的显著物体示例;
图6是本发明和其它6个对比方法在MSRA的测试数据集上得到的显著图示例(其它6个对比方法依次为FT、SR、AIM、IT、CW和GB);
图7是本发明和其它6个对比方法用Otsu算法对图6的显著图分割后提取的显著物体示例;
图8是本发明和其它6个对比方法在MSRA的200幅测试数据集上得到的平均受试者运行曲线、平均正确率召回率曲线以及Otsu分割之下的平均正确率、平均召回率和平均F-measure柱状图。
具体实施方式
参考图1,本发明的具体实施步骤如下:
步骤1:基于颜色和方向信息的多尺度特征图构造:
1.1)将一幅M行N列的彩色图像I在水平方向和垂直方向上以两倍的速率连续下采样,依次形成l个空间尺度下的低分辨图像。
I1=I
Ik+1=f*Ik,k=1,2,…l-1
其中,f是下采样算子,Ik是第k个尺度上的图像。
1.2)对于第k个尺度上的图像Ik,将三个彩色通道作为颜色特征图的元素,后续的特征提取和组合基于此颜色特征图。
F k c = { I k r , I k g , I k b }
1.3)对于第k个尺度上的亮度图使用Gabor滤波器在{0°,45°,90°,135°}四个方向上对其进行方向滤波,得到描述图像方向特性的四幅方向图,并作为方向特征图的元素。
F k d = { O k 0 , O k 45 , O k 90 , O k 135 }
步骤2:基于块稀疏建模的层次化颜色显著图创建:
2.1)假设在第k个尺度的第一个层次上分块的规模为pk1行qk1列,那么通过对颜色特征图不重叠的分块操作之后将得到M/(pk1×2k-1)行N/(qk1×2k-1)列个块。按照从左往右、从上向下的次序给里面的每个分块编号,形成第一个层次上的分块结果。
2.2)如果从中提取出的第i个分块为那么最终形成的第一层稀疏模型中数据的第i列中的元素是分别拉成列向量后连接在一起的结果。
Y k 1 = v ( I k r 1 ) v ( I k r 2 ) . . . v ( I k rH ) v ( I k g 1 ) v ( I k g 2 ) . . . v ( I k gH ) v ( I k b 1 ) v ( I k b 2 ) . . . v ( I k bH )
其中,v(·)操作表示将括号里面的块按行依次重新排列成列向量,H=[M/(pk1×2k-1)]×[N/(qk1×2k-1)]是的列数,的行数W=3×pk1×qk1,描述每一块的特征维度。
2.3)的每一列代表了在第一个层次的观测尺度下各个区域的颜色结构特征,显著区域是颜色结构上相比层次范围内的其它区域更为突出的部分,而这种突出程度可以用稀疏建模的方式来进行衡量。通过求解如下自表示的模型来挖掘这种内在联系。
min &lambda; | | C | | 1 , q + 1 2 | | Y k 1 - Y k 1 C | | F 2 s . t . 1 &gamma; C = 1 &gamma;
其中,C为待求解的稀疏系数,约束项是为了保证在发生数据的平移之后,C仍然能保持不变,即保证优化问题对数据的伸缩平移具有不变特性。C中的每一行代表了对应位置处的图像块在线性组合其它所有块时的组合系数,组合系数绝对值的大小可以看做是块突出程度的定量描述。因此,用如下的方式来表示每一个分块的显著程度。
s i = &Sigma; j = 1 H | C ij | , i = 1,2 , . . . H
令row=M/(pk1×2k-1)且col=N/(qk1×2k-1),分别代表分块后以所有块为单位组成的行数和列数。最终,第k个尺度、第1个层次上的显著图可以表示为如下的形式。
2.4)得到第一个尺度上的显著图之后,将每个块的显著值和图像平均显著值求比值,如果比值在预设的阈值之下那么将该显著快丢弃,否则保留该显著快进行第二层次的局部稀疏建模。用labeli来标记是保留或丢弃第i个显著快,具体如下所示。
if s i 1 / H &Sigma; j = 1 H s j &GreaterEqual; Th label i = 1
else        labeli=0
其中,Th为预设的阈值,一般取2左右。标记为1表示保留该块,标记为0表示丢弃该块。假设经过以上判断之后被保留的显著块为R1,R2,…Rw(每个块的大小已知为pk1行qk1列),且第二个层次上分块的规模为pk2行qk2列,那么通过对保留块的颜色特征图进行不重叠的分块操作之后将得到pk1/pk2行qk1/qk2列个分块。对于每一个保留块按照从左往右、从上向下的次序给里面的每个分块编号,形成第二个层次上的分块结果。
2.5)如果从第j个保留块Rj的颜色通道中提取出的第i个分块为那么最终形成的Rj稀疏模型中数据的第i列中的元素是分别拉成列向量后连接在一起的结果。
Y kj 2 = v ( R j r 1 ) v ( R j r 2 ) . . . v ( R j rV ) v ( R j g 1 ) v ( R j g 2 ) . . . v ( R j gV ) v ( R j b 1 ) v ( R j b 2 ) . . . v ( R j bV )
其中,v(·)操作表示将括号里面的块按行依次重新排列成列向量,V=(pk1/pk2)×(qk1/qk2)是的列数,的行数U=3×pk2×qk2,描述每一块的特征维度。
2.6)的每一列代表了在第二个层次的观测尺度下各个区域的颜色结构特征,显著区域是颜色结构上相比层次范围内的其它区域更为突出的部分,而这种突出程度同样可以用稀疏建模的方式来进行衡量。通过求解如下自表示的模型来挖掘这种内在联系。
min &lambda; | | C | | 1 , q + 1 2 | | Y kj 2 - Y kj 2 C | | F 2 s . t . 1 &gamma; C = 1 &gamma;
同理,用如下的方式来表示保留块中每一个分块的显著程度,同时将未被选中的块的显著度置为0。
s i = &Sigma; j = 1 V | C ij | , i = 1,2 , . . . V
令row=pk1/pk2且col=qk1/qk2,分别代表分块后以所有块为单位组成的行数和列数。最终,第k个尺度、第2个层次上、第j个显著块的显著图可以表示为如下的形式。
将以上结果按照序号组合起来便得到了第k个尺度、第2个层次上的显著图至此第k个尺度上两个层次的显著图便得到。
2.7)第k个尺度上的颜色显著图Ck最终通过两个尺度上的显著图相加得到,对于其它尺度重复以上所有步骤便可得到所有尺度上的颜色显著图。
C k = S k 1 + S k 2
步骤3:基于Gabor方向特征图的多尺度方向显著图创建:
视觉对于场景中的边缘和方向信息有很强的捕捉能力,可以将方向信息作为显著图的组成部分。在第k个尺度上,方向显著图Ok可以通过将四个方向的Gabor滤波结果进行相加得到,如下所示。
步骤4:基于多尺度信息融合的显著图形成:
4.1)经过以上步骤之后,在每个尺度上形成了一幅颜色显著图和一幅方向显著图,将两者按照以下规则进行融合可得到各个尺度的显著图。
SMk=fk*(Ck+OK)
其中,fk为模糊算子用以对得到的结果进行模糊和平滑,使得视觉效果更佳。
4.2)最终的显著图是各个尺度上显著图的平均结果,表示在多个尺度的观测结之下得到的综合结果,具有对显著区域尺度变化的鲁棒性。
SM = 1 s &Sigma; k = 1 s SM k
其中,s表示观测的尺度级别。
步骤5:基于Otsu最优阈值分割的显著物体提取:
5.1)将显著图的灰度级范围调整在8位,以便于不同算法在同一数量级下进行客观公正的评价。同时,调整后的结果也有利于后续Otsu算法寻找最优分割阈值,使得分割后的前景和背景区域之间具有最大的方差。假设灰度级调整后的显著图为最优分割阈值为T,则可用索引图像来表示得到的前景和背景区域。
Index ( i , j ) = 1 SM ^ ( i , j ) &GreaterEqual; T 0 SM ^ ( i , j ) < T , i &Element; [ 1 , M ] , j &Element; [ 1 , N ]
5.2)根据所得的Index图像,可以从原图中提取出前景部分的区域,而将背景部分的区域设为黑色。借助Protoobject图像可以通过视觉来直观分析显著检测的好坏,而客观的评价指标则是借助于Groundtruth图对ROC曲线、Precision-Recall曲线和F-measure的计算来进行的。
Proto(i,j)=I(i,j).*Index(i,j),i∈[1,M],j∈[1,N]
本发明的效果通过以下仿真实验进一步说明:
(1)实验仿真条件:
本实验所采用的测试图像包括侯晓迪于2007年创建的数据集和Achanta等人于2009年根据MSRA图像库创建的数据集。前者由62张包含4种自然场景的图像组成,所产生的Groundtruth参考图是由多个手工标记者标记结果的综合。但是,所选取的部分测试图像中涉及多个显著区域,可能会给主观上带来歧义。同时手工标定的二值图比较粗略,和真实场景有较大的偏离,不利于进行客观的评价。后者从MSRA的数据库中选取了1000张图像,并手工标定了所有图的Groundtruth参考图。所选的图像大都包含明确的显著区域,而且标定的参考图有很高的可信度,适合后续的数值分析与比较。本实验在CPU为Intel(R)Core(TM)i5-3470、主频为3.2GHz、内存为4G的WINDOWS7操作***上采用32位的MATLAB2012a进行仿真。
(2)显著性检测性能评价标准:
(2a)受试者运行曲线(ROC Curve)和正确率召回率曲线(PR Curve)
在二值决策问题中,分类器将样例标注为正或负,其作出的决策可以用如表1所示的混淆矩阵来表示。混淆矩阵有四种类型:TP(分类器正确将正类样本标注为正类)、FP(分类器错误将负类样本标注为正类)、TN(分类器正确将负类样本标注为负类)、FN(分类器错误将正类样本标注为负类)。
表1 混淆矩阵示意图
在对显著图进行分析和评价的过程中,为了实现客观公正的比较,也为了便于对显著图分割,首先将显著图的灰度级范围调整到8位。将分割阈值依次取为从0到255之间的所有值,在每个分割阈值下得到一个分割图。分割图按照如下方式产生:将显著图和分割阈值进行比较,大于阈值的位置判定为显著,小于阈值的位置判定为不显著。最后,结合Groundtruth图就可以按照以上定义求得每一个分割图下的TP、FP、FN和TN。
受试者运行曲线反映的是被正确分类的正类样本数在总的正类样本中所占的比重随着被错误分类的负类样本数在总的负类样本中所占比重的变化情况。前者通常被称为检测率Pd,后者被称为虚警率Pf,它们和前述混淆矩阵的关系如下所示。
P d = TP TP + FN
P f = FP FP + TN
正确率召回率曲线反映的是被正确分类的正类样本在被判定为正类样本中所占的比重随着被正确分类的正类样本在真实正类样本中所占比重的变化情况。前者通常被称为正确率Precision,后者被称为召回率Recall,它们和前述混淆矩阵的关系如下所示。
Precision = TP TP + FP
Recall = TP TP + FN
将每个分割阈值下得到的分割图和Groundtruth图对照可求得曲线上的一点,依次可以形成最终的ROC曲线。曲线横纵坐标所代表的变量之间存在着相互制约的关系,通常可以通过观察曲线与横轴所围成的面积或者曲线在图中的位置来判断所得显著图的好坏。通常面积越大,曲线越靠近左上角则说明所得显著图越好。和ROC曲线类似,通过将每个分割阈值下得到的分割图和Groundtruth图对照可求得曲线上的一点,依次可以形成最终的PR曲线。通过观察曲线与横轴所围成的面积或者曲线在图中的位置也可以判断所得显著图的好坏。通常面积越大,曲线越靠近右上角则说明所得显著图越好。
为了得到具有统计意义的结果,将MSRA中的200幅图像的ROC曲线和PR曲线求平均,形成最终的ROC和PR曲线。
(2b)正确率、召回率和F-measure值
对于显著物体检测来说,最终要将显著图进行分割形成前景和背景。本发明利用经典的Otsu最优阈值分割算法来实现以上过程,使得分割结果具有较高的可信度。分割之后的结果越接近于Groundtruth图越好,而用以衡量此标准的数值指标为正确率、召回率和F-measure。正确率和召回率与之前的定义一致,此处仅将Otsu分割的结果和Groundtruth图进行对照来获得这两个值。同时,在数学上F-measure是Precision和Recall的调和平均值,可以实现综合的评价,其计算公式如下所示。
F - measure = ( 1 + &beta; 2 ) &times; Precision &times; Recall &beta; 2 &times; Precision + Recall
β是对Precision所加的权重,表示对检测的正确率赋予更重要的地位。按照已有文献中的做法,一般将β2的值取为0.3。
以上客观的评价方式能定量和直观地评价显著检测的结果,但仅凭这些指标并不能达到理想的评价效果,除了数值结果外也需要通过视觉的主观评价。
(3)实验内容
实验一
首先,在Hou的数据集上对本发明所设计的基于图像层次化稀疏建模的多尺度显著性检测方法进行测试。图2是在不同层次下得到的显著图和提取的显著区域示例。其中:
图2(a)是在第一个层次上得到的显著图,
图2(b)是在第二个层次上得到的显著图,
图2(c)是对第一层次的显著图经Otsu分割后提取的显著区域,
图2(d)是对第二层次的显著图经Otsu分割后提取的显著区域;
从图2可以看出,在不同层次之间能互补信息,在显著图的形成中有着很重要的意义。图3是在不同尺度下得到的显著图和最终融合后的显著图示例。其中:
图3(a)是在第一个尺度上得到的显著图,
图3(b)是在第二个尺度上得到的显著图,
图3(c)是在第三个尺度上得到的显著图,
图3(d)是最终融合后的显著图;
从图3同样可以看出,多个尺度上融合后得到的显著图具有单个尺度所无法比拟的效果。为了验证本发明所用方法的有效性,将本发明得到的显著图结果和经典的Itti方法(简称IT)、谱残差方法(简称SR)、频率调制方法(简称FT)和基于图的方法(简称GB)进行了对照,实验结果如图4所示。其中:
图4(a)是原始输入图像,
图4(b)是IT方法得到的显著图,
图4(c)是SR方法得到的显著图,
图4(d)是FT方法得到的显著图,
图4(e)是GB方法得到的显著图,
图4(f)是本发明所用方法得到的显著图;
同时,将以上5中方法所得显著图进行Otsu阈值分割,将按照分割结果所提取出的显著区域图也进行了对照,实验结果如图5所示。其中:
图5(a)是原始输入图像,
图5(b)是IT方法提取的显著区域图,
图5(c)是SR方法提取的显著区域图,
图5(d)是FT方法提取的显著区域图,
图5(e)是GB方法提取的显著区域图,
图5(f)是IT本发明所用方法提取的显著区域图;
从图4和图5可以看出,本发明所采用的方法能相对准确地描述图像的显著性,同时所提取的显著区域与视觉显著特性较为吻合,在显著图生成和显著区域的提取上较其它4种对比方法有更好的效果。
实验二
本发明的方法进一步在200幅MSRA数据集上进行了测试,对应的Groundtruth图采用Achanta等人手工标定的结果。为了充分验证所提方法的有效性,将本实验所得显著图与经典的信息最大化方法(简称AIM)、情境感知方法(简称CW)、频率调制方法(简称FT)、基于图的方法(简称GB)、Itti方法(简称IT)、谱残差方法(简称SR)进行了比较,实验结果如图6所示。其中:
图6(a)是原始输入图像,
图6(b)是AIM方法得到的显著图,
图6(c)是CW方法得到的显著图,
图6(d)是FT方法得到的显著图,
图6(e)是GB方法得到的显著图,
图6(f)是IT方法得到的显著图,
图6(g)是SR方法得到的显著图,
图6(h)是本发明所用方法得到的显著图;
同时,将以上7中方法所得显著图进行Otsu阈值分割,将按照分割结果所提取出的显著区域图也进行了对照,实验结果如图7所示。其中:
图7(a)是Groundtruth图像,
图7(b)是AIM方法提取的显著区域图,
图7(c)是CW方法提取的显著区域图,
图7(d)是FT方法提取的显著区域图,
图7(e)是GB方法提取的显著区域图,
图7(f)是IT方法提取的显著区域图,
图7(g)是SR方法提取的显著区域图,
图7(h)是本发明所用方法提取的显著区域图;
从图6和图7可以看出,本方法在不同的场景中都有较好的显著检测性能,与其它6个经典的显著检测方法相比在显著区域的定位精度、均匀显著区域的描述和对边缘的依赖上都有较大的提高和改进。最后,为了定量评价各个显著检测方法的性能,将200幅图像的ROC曲线和PR曲线进行了平均并将结果绘制在一起以便比较。同时在Otsu分割后的图像上求取每幅图像的Precision、Recall和F-measure值,并在200幅图像上取平均结果后绘制为柱状图。最终的ROC曲线、PR曲线和平均Precision、Recall和F-measure值的柱状图如图8所示。其中:
图8(a)是所有方法的ROC曲线;
图8(b)是所有方法的PR曲线;
图8(c)是所有方法的平均Precision、Recall和F-measure值的柱状图;
表2列出了各显著检测方法的平均Precision、Recall和F-measure数值结果。
表2 各方法的平均Precision、Recall和F-measure值
从图8和表1可以看出,本发明所得的ROC曲线和PR曲线所包围的AUC区域面积比其它方法更大。同时平均Recall值也取得了最好的结果,而平均Precision和F-measure值仅次于FT方法。但从视觉效果上来说FT方法过度依赖于图像颜色,从大量的测试结果可知其检测性能波动较大。综合以上分析可知,本发明所采用的方法在显著检测方面有更好的效果。
综上,本发明借助于图像的颜色和方向特征图,通过多尺度和多层次的稀疏建模与融合,有效地挖掘了稀疏性与视觉显著性之间存在的关系,得到了较为满意的显著检测结果,在计算机视觉领域的相关应用中有着一定的应用前景。
本发明与现有技术相比具有以下优点:
1、本发明着眼于显著性所源于的稀缺特性,通过用自表示的稀疏建模方式建立起显著性和稀疏性之间的关联,并用稀疏表示系数刻画显著程度。用颜色和方向特征图所建立的计算模型符合生物视觉显著特性,有较为完备的理论支撑。
2、本发明采用层次化的渐进建模方式,能在不同的范围内对各个位置的显著性以区域为单位进行描述,使得算法对于显著范围的变化具有鲁棒性。同时,多尺度观测的方式可获得不同尺度下显著性的信息,对前景尺寸的变化有很好的适应性。通过尺度化、层次化的观测方式克服了传统显著检测方法对于边缘的依赖性,并在均匀显著区域的描述上获得了较为一致的效果。
本实施例没有详细叙述的部分属本行业的公知的常用手段,这里不一一叙述。以上例举仅仅是对本发明的举例说明,并不构成对本发明的保护范围的限制,凡是与本发明相同或相似的设计均属于本发明的保护范围之内。

Claims (2)

1.一种基于层次化稀疏建模的图像显著性检测方法,其特征在于:包括如下步骤:
(1)基于颜色和方向信息的多尺度特征图构造:
1a)将一幅输入图像在水平方向和垂直方向上隔行隔列采样,形成大小为原图1/2的低分辨率图像,对此低分辨率图像继续进行下采样,得到大小为原图1/4的更低分辨率的图像,将原图和这两幅降采样后的图像作为3个尺度上的输入图像;
1b)对于3个尺度上的输入图像,将红绿蓝三个彩色通道作为颜色特征图的元素,用于稀疏建模的特征,对于每一个尺度上输入图像的亮度图,使用Gabor滤波器在0,45,90和135度四个方向上对其进行方向滤波得到描述图像方向信息的四幅方向滤波图,作为后续方向显著图的基础;
(2)基于逐层自表示建模的颜色显著图创建:
2a)将3个尺度上输入图像的颜色特征图按照16*16的分块大小无重叠地分为大小相同的子块,每一个子块作为显著性描述的基本单元;
2b)按照自表示模型的数据组织形式,把每个子块的所有颜色特征组合起来并形成一个代表子块结构特性的特征向量,所有子块的特征向量依次排列成为一个大的矩阵作为自表示模型中的原始数据矩阵Y;
2c)将数据矩阵Y作为优化问题
min &lambda; | | C | | 1 , q + 1 2 | | Y k 1 - Y k 1 C | | F 2 s . t . 1 &gamma; C = 1 &gamma;
的输入,使用交替乘子方向ADMM优化算法求解此自表示模型的解,优化算法中对系数矩阵C施加行稀疏的约束,以用尽量少的元素来表示所有数据;经过多次迭代之后便会得到自表示模型的解;按照所提出的显著性和稀疏系数之间的求解公式得到每个子块在第一层次的显著描述,
s i = &Sigma; j = 1 V | C ij | , i = 1,2 , . . . V
其中,si表示第i个子块的显著值,Cij为系数矩阵中第i行j列的元素,V为子块的个数;
2d)对于第1个尺度上的各子块,将其显著值和所有子块显著值均值的2倍做比较,如果小于均值的2倍则认为此子块在第1个尺度上是非显著的,否则认为是显著的;在第2个层次上丢弃那些被认为是非显著的子块,对每一个显著的子块进行进一步的自表示建模;
2e)将每个显著子块进一步分割为大小为8*8的更小的子块,并将对应的颜色特征组织成自表示模型的数据矩阵,经过ADMM优化算法优化求解之后会得到进一步分割后的各子块的稀疏系数;
(3)基于多尺度信息融合的显著图形成:
3a)经过以上步骤之后,在每个尺度上形成了两幅颜色显著图和四幅方向滤波图,将两幅不同层次上得到的颜色显著图相加形成每个尺度上的颜色显著图,代表图像逐层递进的颜色显著信息;同时将四幅方向滤波图也相加形成每个尺度上的方向显著图,代表每个尺度上图像的边缘显著信息;
3b)将每个尺度上得到的颜色显著图和方向显著图进行归一化操作,使得两者具有相同的描述范围,之后对以上结果相加形成每个尺度上融合后的显著图,用以表示特定尺度上所得到的显著描述结果;
3c)最后将3个尺度上的显著图进行尺度上的统一,亦即将每一幅显著图调整到原始图像的大小,通过对所有的结果按位置求平均便可以得到最终的显著图;
(4)基于Otsu最优阈值分割的显著物体提取:
4a)将通过以上步骤所得显著图的灰度级范围调整在0到255的8位灰度级下,运用具有二值分割效果的Otsu算法对其进行分割,得到前景和背景区域,前景区域为在此规则下得到的显著区域,背景是非显著区域;
4b)根据分割后的索引图像,从原图中提取出前景部分的区域,将背景部分的区域设为黑色,自此便完成了显著检测的所有阶段,之后用受试者运行曲线、正确率召回率曲线和平均正确率、召回率及F-measure值常用数字评价指标对所得显著图的好坏进行客观评价,并和经典的显著检测算法进行比较验证其有效性。
2.如权利要求1所述的一种基于层次化稀疏建模的图像显著性检测方法,其特征在于:步骤(2)中的2d)步骤所述的对每一个显著的子块进行进一步的自表示建模,其具体方法如下:
将显著值大于平均值Th倍的子块保留用作下一层的自表示建模,并舍弃其余子块,按照如下的准则进行子块的取舍:
if s i 1 / H &Sigma; j = 1 H s j &GreaterEqual; Th label i = 1
else        labeli=0
其中,Th为预设的阈值,将其设定为2,labeli表示第i个子块是否被保留,如果为1则表明保留,并进行下一层的自表示建模,为0则表示舍弃此子块。
CN201410499111.1A 2014-09-25 2014-09-25 一种基于层次化稀疏建模的图像显著性检测方法 Expired - Fee Related CN104240256B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410499111.1A CN104240256B (zh) 2014-09-25 2014-09-25 一种基于层次化稀疏建模的图像显著性检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410499111.1A CN104240256B (zh) 2014-09-25 2014-09-25 一种基于层次化稀疏建模的图像显著性检测方法

Publications (2)

Publication Number Publication Date
CN104240256A true CN104240256A (zh) 2014-12-24
CN104240256B CN104240256B (zh) 2017-03-15

Family

ID=52228262

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410499111.1A Expired - Fee Related CN104240256B (zh) 2014-09-25 2014-09-25 一种基于层次化稀疏建模的图像显著性检测方法

Country Status (1)

Country Link
CN (1) CN104240256B (zh)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104778704A (zh) * 2015-04-20 2015-07-15 北京航空航天大学 基于随机扫视图稀疏信号重构的图像关注区域检测方法
CN104899875A (zh) * 2015-05-20 2015-09-09 天津大学 一种基于积分匹配的快速图像协同显著区域监测方法
CN105023016A (zh) * 2015-06-25 2015-11-04 中国计量学院 基于压缩感知分类的目标感知方法
CN105389550A (zh) * 2015-10-29 2016-03-09 北京航空航天大学 一种基于稀疏指引与显著驱动的遥感目标检测方法
CN105426895A (zh) * 2015-11-10 2016-03-23 河海大学 基于马尔科夫模型的显著性检测方法
CN105513042A (zh) * 2015-10-30 2016-04-20 河海大学 一种基于多层分析和分层推理的显著性检测方法
CN107767329A (zh) * 2017-10-17 2018-03-06 天津大学 基于显著性检测的内容感知图像缩略图生成算法
CN107992874A (zh) * 2017-12-20 2018-05-04 武汉大学 基于迭代稀疏表示的图像显著目标区域提取方法及***
CN108229342A (zh) * 2017-12-18 2018-06-29 西南技术物理研究所 一种海面舰船目标自动检测方法
CN110060280A (zh) * 2019-04-28 2019-07-26 东华大学 基于外观自适应空间正则化相关滤波器的目标跟踪方法
CN110612534A (zh) * 2017-06-07 2019-12-24 赫尔实验室有限公司 检测图像中的显著对象的***
CN111968109A (zh) * 2020-09-02 2020-11-20 中国科学院长春光学精密机械与物理研究所 多传感器自主跟踪中的数据融合方法、装置、设备及介质
CN112115292A (zh) * 2020-09-25 2020-12-22 海尔优家智能科技(北京)有限公司 图片搜索方法及装置、存储介质、电子装置
CN113343953A (zh) * 2021-08-05 2021-09-03 南京信息工程大学 一种用于遥感场景识别的fgr-am方法和***
WO2021253671A1 (zh) * 2020-06-18 2021-12-23 中国科学院深圳先进技术研究院 磁共振电影成像方法、装置、成像设备及存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101980248B (zh) * 2010-11-09 2012-12-05 西安电子科技大学 基于改进视觉注意力模型的自然场景目标检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KUAN-TING YU等: "Learning hierarchical representation with sparsity for RGB-D object recognition", 《2012 IEEE/RSJ INTERNATIONAL CONFERENCE ON INTELLIGENT ROBOTS AND SYSTEMS》 *
曹向海等: "背景感知的显著性检测算法", 《***工程与电子技术》 *

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104778704A (zh) * 2015-04-20 2015-07-15 北京航空航天大学 基于随机扫视图稀疏信号重构的图像关注区域检测方法
CN104778704B (zh) * 2015-04-20 2017-07-21 北京航空航天大学 基于随机扫视图稀疏信号重构的图像关注区域检测方法
CN104899875A (zh) * 2015-05-20 2015-09-09 天津大学 一种基于积分匹配的快速图像协同显著区域监测方法
CN105023016A (zh) * 2015-06-25 2015-11-04 中国计量学院 基于压缩感知分类的目标感知方法
CN105023016B (zh) * 2015-06-25 2018-08-28 中国计量学院 基于压缩感知分类的目标感知方法
CN105389550B (zh) * 2015-10-29 2018-07-17 北京航空航天大学 一种基于稀疏指引与显著驱动的遥感目标检测方法
CN105389550A (zh) * 2015-10-29 2016-03-09 北京航空航天大学 一种基于稀疏指引与显著驱动的遥感目标检测方法
CN105513042A (zh) * 2015-10-30 2016-04-20 河海大学 一种基于多层分析和分层推理的显著性检测方法
CN105426895A (zh) * 2015-11-10 2016-03-23 河海大学 基于马尔科夫模型的显著性检测方法
CN110612534B (zh) * 2017-06-07 2023-02-21 赫尔实验室有限公司 检测图像中的显著对象的***、计算机可读介质和方法
CN110612534A (zh) * 2017-06-07 2019-12-24 赫尔实验室有限公司 检测图像中的显著对象的***
CN107767329B (zh) * 2017-10-17 2021-04-27 天津大学 基于显著性检测的内容感知图像缩略图生成方法
CN107767329A (zh) * 2017-10-17 2018-03-06 天津大学 基于显著性检测的内容感知图像缩略图生成算法
CN108229342B (zh) * 2017-12-18 2021-10-26 西南技术物理研究所 一种海面舰船目标自动检测方法
CN108229342A (zh) * 2017-12-18 2018-06-29 西南技术物理研究所 一种海面舰船目标自动检测方法
CN107992874B (zh) * 2017-12-20 2020-01-07 武汉大学 基于迭代稀疏表示的图像显著目标区域提取方法及***
CN107992874A (zh) * 2017-12-20 2018-05-04 武汉大学 基于迭代稀疏表示的图像显著目标区域提取方法及***
CN110060280A (zh) * 2019-04-28 2019-07-26 东华大学 基于外观自适应空间正则化相关滤波器的目标跟踪方法
WO2021253671A1 (zh) * 2020-06-18 2021-12-23 中国科学院深圳先进技术研究院 磁共振电影成像方法、装置、成像设备及存储介质
CN111968109A (zh) * 2020-09-02 2020-11-20 中国科学院长春光学精密机械与物理研究所 多传感器自主跟踪中的数据融合方法、装置、设备及介质
CN111968109B (zh) * 2020-09-02 2022-07-08 中国科学院长春光学精密机械与物理研究所 多传感器自主跟踪中的数据融合方法、装置、设备及介质
CN112115292A (zh) * 2020-09-25 2020-12-22 海尔优家智能科技(北京)有限公司 图片搜索方法及装置、存储介质、电子装置
CN113343953A (zh) * 2021-08-05 2021-09-03 南京信息工程大学 一种用于遥感场景识别的fgr-am方法和***

Also Published As

Publication number Publication date
CN104240256B (zh) 2017-03-15

Similar Documents

Publication Publication Date Title
CN104240256A (zh) 一种基于层次化稀疏建模的图像显著性检测方法
CN110599537A (zh) 基于Mask R-CNN的无人机图像建筑物面积计算方法及***
CN104134071B (zh) 一种基于颜色描述的可变形部件模型物体检测方法
CN109447994A (zh) 结合完全残差与特征融合的遥感图像分割方法
CN102810161B (zh) 一种用于拥挤场景下的多个行人检测方法
CN105374033B (zh) 基于脊波反卷积网络和稀疏分类的sar图像分割方法
CN104573685B (zh) 一种基于线性结构提取的自然场景文本检测方法
CN106920243A (zh) 改进的全卷积神经网络的陶瓷材质件序列图像分割方法
CN107463920A (zh) 一种消除局部遮挡物影响的人脸识别方法
CN103886760B (zh) 实时的基于交通视频的车型检测***
CN105574550A (zh) 一种车辆识别方法及装置
CN105069468A (zh) 基于脊波和深度卷积网络的高光谱图像分类方法
CN106909902A (zh) 一种基于改进的层次化显著模型的遥感目标检测方法
CN105678231A (zh) 一种基于稀疏编码和神经网络的行人图片检测方法
CN106408030A (zh) 基于中层语义属性和卷积神经网络的sar图像分类方法
CN101630363A (zh) 复杂背景下彩色图像人脸的快速检测方法
CN105205449A (zh) 基于深度学习的手语识别方法
CN110675421B (zh) 基于少量标注框的深度图像协同分割方法
CN104657717A (zh) 一种基于分层核稀疏表示的行人检测方法
CN103761747B (zh) 一种基于加权分布场的目标跟踪方法
CN108776777A (zh) 一种基于Faster RCNN的遥感影像对象间空间关系的识别方法
CN106022254A (zh) 图像识别技术
CN106846322A (zh) 基于曲线波滤波器和卷积结构学习的sar图像分割方法
CN106683102A (zh) 基于脊波滤波器和卷积结构模型的sar图像分割方法
CN102163281A (zh) 基于AdaBoost框架和头部颜色的实时人体检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20170315