CN104966285B - 一种显著性区域的检测方法 - Google Patents
一种显著性区域的检测方法 Download PDFInfo
- Publication number
- CN104966285B CN104966285B CN201510297326.XA CN201510297326A CN104966285B CN 104966285 B CN104966285 B CN 104966285B CN 201510297326 A CN201510297326 A CN 201510297326A CN 104966285 B CN104966285 B CN 104966285B
- Authority
- CN
- China
- Prior art keywords
- region
- value
- image
- pixels
- component
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
- G06T2207/20032—Median filtering
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种显著性区域的检测方法,其将参与差异性对比计算的基本元素定义为区域,使之与最终的检测结果在同一量级,从而提高了显著性区域检测的效率。包括步骤:(1)开始;(2)使用高斯滤波对原始图像进行预处理;(3)将步骤(2)预处理后的图像从RGB颜色空间转换到LAB颜色空间;(4)进行基于图的图像分割;(5)计算各分割区域的特征向量和质心坐标;(6)基于LAB颜色空间计算各分割区域的显著性值。
Description
技术领域
本发明属于多媒体技术与计算机图形学的技术领域,具体地涉及一种显著性区域的检测方法。
背景技术
显著性区域检测是指机器模拟人类快速准确识别视觉场中的显著性区域。显著性区域的检测方法在计算机视觉领域是很重要的一种技术,在图像分割、物体识别、图像检索、内容保持和图像编辑等领域都有很大的应用价值。在过去的几十年来,研究人员提出了很多显著性区域的检测方法,主要有基于全局对比的显著性区域检测和基于区域对比的显著性检测两大类方法。目前经典的显著性区域的检测方法有MZ,FT,SR,AC,GB,IT等方法,目前这6种典型的显著性检测算法中,FT的效率和准确率最高。
以上这些算法的共同点是以像素为基本运算单位,对任一像素比对其与整张图像中其他像素或指定区域范围内的每个像素在给定特征向量上的差异来计算该像素的显著性值。然而从显著性区域检测结果以及人类视觉特性来看,一张图像中的显著性区域通常就是该图像中的前景对象,且通常是连续的一个或者多个区域,以上这些算法都忽略了显著性区域本身就是区域这一事实,从而显著性区域检测效率较低。
发明内容
本发明的技术解决问题是:克服现有技术的不足,提供一种显著性区域的检测方法,其将参与差异性对比计算的基本元素定义为区域,使之与最终的检测结果在同一量级,从而提高了显著性区域检测的效率。
本发明的技术解决方案是:这种显著性区域的检测方法,包括以下步骤:
(1)开始;
(2)使用高斯滤波对原始图像进行预处理,根据公式(2)计算高斯卷积核中各个元素的值:
其中i,j取值是从1到2k+1,参数σ为方差,参数k决定核矩阵的维数,高斯卷积核的维度是(2k+1)*(2k+1)维;
(3)将步骤(2)预处理后的图像从RGB颜色空间转换到LAB颜色空间;
(4)进行基于图的图像分割;
(5)计算各分割区域的特征向量和质心坐标;
(6)基于LAB颜色空间计算各分割区域的显著性值。
本发明首先对原始图像进行基于图的图像分割,将分割出来的区域作为差异性对比计算的基本单位,使之与最终的检测结果在同一量级,从而提高了显著性区域检测的效率。
附图说明
图1是根据本发明的显著性区域的检测方法的流程图。
图2示出了本发明与其他6种方法在包含1000幅图像的公用数据集上进行检测的准确率和召回率曲线,其中曲线图的竖轴是准确率,横轴是召回率。
具体实施方式
如图1所示,这种显著性区域的检测方法,包括以下步骤:
(1)开始;
(2)使用高斯滤波对原始图像进行预处理,根据公式(2)计算高斯卷积核中各个元素的值:
其中i,j取值是从1到2k+1,参数σ为方差,参数k决定核矩阵的维数,高斯卷积核的维度是(2k+1)*(2k+1)维;
(3)将步骤(2)预处理后的图像从RGB颜色空间转换到LAB颜色空间;
(4)在LAB颜色空间上进行基于图的图像分割;
(5)计算各分割区域的特征向量和质心坐标;
(6)基于LAB颜色空间计算各分割区域的显著性值。
本发明首先对原始图像进行基于图的图像分割,将分割出来的区域作为差异性对比计算的基本单位,使之与最终的检测结果在同一量级,从而提高了显著性区域检测的效率。
优选地,所述步骤(2)中σ取值为0.8,k取值为1,滤波窗口的大小是3*3。
优选地,所述步骤(4)包括以下分步骤:
(4.1)将图像映射为带权无向图G=<V,E>,图中每个顶点vi∈V对应于图像中的每个像素,每条边edge(vi,vj)∈E连接一对相邻像素vi和vj,边的权值w(edge(vi,vj))表示相邻像素在灰度、颜色或纹理方面的非负相似度,根据公式(8)使用欧氏距离计算权值:
w(edge(vi,vj))=||li-lj||+||ai-aj||+||bi-bj|| (8)
其中li,ai,bi是vi像素转换到Lab颜色空间对应的Lab通道的值,然后对边的集合按照权值非递减排序;
(4.2)初始时S0作为最初的分割结果,其中组件数是n,每个顶点都作为一个单独的组件,并且对每个组件Ck初始化其阈值Tk=τ(Ck),初始时|Ck|=1;
(4.3)循环重复步骤(4.4)m次,其中q=1,2…,m;
(4.4)Qq=(vi,vj)表示遍历过程中的第q条边,先获取vi,vj所在的组件号C1,C2,如果C1和C2相等则说明这两个顶点本身已经在同一个组件里面,那么Sq=Sq-1;如果C1和C2不相等,则判断w(edge(vi,vj))的权值是否比Mint(C1,C2)小,如果比Mint(C1,C2)小则说明在一个组件里面,那么将组件C2合并到C1组件,设C′1是合并前的C1组件,则C1=C1′∪C2,更新合并后C1的阈值τ(C1)=τ(C1′)+τ(C2);
(4.5)对于步骤(4.4)划分的区域C1和C2进行一次过滤,将顶点数小于阈值MIN_NUM的区域进行合并,取原始图像总像素的0.4%作为MIN_NUM的值;循环重复步骤(4.4)m次,其中q=1,2,…,m,按照公式(9)判定是否属于同一个组件:
优选地,所述步骤(5)中:
计算每个区域的特征向量和每个区域的质心坐标,区域rk的特征向量Ik=[Lm,am,bm]T,其中Lm,am,bm按照公式(10)计算:
其中n表示区域rk的像素总数,Li,ai,bi是第i个像素对应的Lab空间的值,每个区域的特征向量是该区域包含像素的Lab颜色的平均值;
每个区域rk的质心坐标ck=(xk,yk),其中xk,yk按照公式(11)计算:
其中n表示区域rk的像素总数,xi,yi是区域rk像素的坐标,clos是整幅图像的列数,rows是整幅图像的行数。
优选地,所述步骤(6)中:
区域ri的显著性值使用公式(12)进行计算:
其中w(rj)是区域rj的权重值,表示区域rj对区域ri显著性的影响强度,Uij是两个区域的空间距离,表示远近区域对区域ri的影响强度,其通过公式(13)计算:
Uij=exp(-Cij(ri,rj)/ρ) (13)
其中ρ控制空间距离对区域显著性计算的影响强度,ρ取值为0.16;其
中Cij(ri,rj),表示区域ri,rj之间的质心距离,按照公式(14)计算:
Cij(ri,rj)=||xi-xj||+||yi-yj|| (14)
其中(xi,yi)和(xj,yj)表示区域ri,rj的质心坐标;
Dij(ri,rj)表示两个区域在颜色空间的距离,按照公式(15)计算:
D(ri,rj)=||Ii-Ij|| (15)
其中Ii,Ij表示区域ri和rj的特征向量。
以下给出一个具体实施例:
本发明提出的方法包括以下步骤:
1.高斯滤波
图像在成像、数字化和传输的过程中会受到各种各样噪声的干扰,从而使最后获得的图像质量退化,表现为特征淹没、图像模糊,图像失真等,这样受噪声干扰的图像会对后期的图像分析产生负面影响。滤波是一个数学模型,通过这个模型可以对图像数据进行能量转化,滤波的结果是排除能量低的信号。噪声属于低能量信号,因此通过滤波可以有效地将噪声信号过滤掉。数字图像滤波对原图像的每一个像素进行考察,该像素的滤波结果是根据其相邻像素(包括自身)与一个滤波模板进行相乘得到的。本发明使用高斯滤波对原图像进行预处理,高斯滤波是一种线性平滑滤波,适用于滤除高斯白噪声。高斯滤波的计算准则是,基于该点本身灰度值及其邻域内的其他像素灰度值进行加权平均运算,而加权平均系数由二维离散高斯函数采样并归一化后得到。具体的高斯滤波函数如式(1):
本发明在实现过程中对公式(1)进行了适当的改变,使用公式(2)计算高斯卷积核中各个元素的值:
其中i,j取值是从1到2k+1,参数σ为方差,σ过大会加深滤波的程度,从而会导致图像边缘过于模糊,从而影响下一步基于图的区域分割;σ过小滤波效果就会被弱化,去噪效果不好。参数k决定核矩阵的维数,高斯卷积核的维度是(2k+1)*(2k+1)维,也就是滤波窗口的大小。考虑到高斯滤波中σ取值为0.8时不会对原始图像造成视觉上的明显改变同时又有利于去除图像伪影,因此本实验中σ取值为0.8,k取值为1,即滤波窗口的大小是3*3。
通过以上方式对原始图像进行高斯滤波后,可以明显提高后期显著性区域获取的质量,显著性区域获取质量上升的原因是因为经过高斯滤波之后,基于图的图像分割方法得到的分割区域更加准确,从而提高了后期获取显著性区域的质量。
2.RGB颜色空间转换到LAB颜色空间
由于LAB颜色空间更加接近人类视觉***,它致力于感知均匀性,是一种设备无关的颜色***,也是一种基于生理特征的颜色***。这也就意味着,它是用数字化的方法来描述人的视觉感应,因此与人类的感知***更加符合,基于该理论基础本发明将原始图像从RGB颜色空间转换到LAB颜色空间,然后再进行区域的分割和显著性的计算。
3.基于图的图像分割
所谓图像分割指的是根据灰度、颜色、纹理和形状等特征把图像划分成若干互不交迭的区域,并使这些特征在同一区域内呈现出相似性,而在不同区域间呈现出明显的差异性。考虑到显著性检测应用场景的特殊性,需要较高分割速率和较准确的大区域分割结果,同时可以在分割过程中对分割的小区域进行控制,即将小区域直接划分到与其相似度比较高的大区域上,从而减少后期计算的时间复杂度。考虑到在Lab颜色空间上进行基于图的图像分割更加符合人类的感知,因此对Pedro F.Felzenszwalb等人提出的图像分割算法进行改进,将原算法中边的权重计算方式从RGB颜色空间转换为LAB颜色空间,从而把基于RGB颜色空间的基于图的图像分割转换为基于LAB颜色空间的基于图的图像分割。
首先介绍本发明算法中用到的标记符号的含义:
谓词D(式3)表示两个组件是否属于同一个组件,组件即区域。
其中C1,C2是V的子集,V是图像中所有像素组成的集合,每个像素看作图的一个顶点。Dif(C1,C2)定义如式(4):
也就是两个组件之间所有相连的边的最小的权重值作为两个组件的差异值,如果没有相连的边则认为两个组件的差异值是无穷大,当差异值小于等于Mint(C1,C2)则属于同一个组件,则需要对两个组件进行合并,否则属于两个不同的组件,那么不需要进行任何处理。其中Mint(C1,C2)定义如式(5):
Mint(C1,C2)=min(Int(C1)+τ(C1),Int(C2)+τ(C2)) (5)
Int(Ck)表示组件Ck的内部差异性,是组件Ck组件的最小生成树中边的最大权值,Ck是V的子集。Int(Ck)定义如式(6):
其中Ek是组件Ck所有边集合,τ(Ck)是阈值函数,该阈值函数是判断两个组件是否属于不同组件时的最小阈值,定义如式(7):
τ(Ck)=l/|Ck| (7)
其中l用来控制最小阈值,是一个常量,一般情况下对分辨率越高的图像取值应该越大,本实验l值取值50,|Ck|表示组件Ck中含有的顶点数。
本发明的输入是有n个顶点和m条边的图G,G=<V,E>,输出是对点集V分割得到的组件集合S=(C1,C2,C3…,Cr),这里组件即区域,具体的分割步骤如下:
Step1:首先将图像映射为带权无向图G=<V,E>,图中每个顶点vi∈V对应于图像中的每个像素,每条边edge(vi,vj)∈E连接一对相邻像素vi和vj(8邻域邻居定义为相邻)。边的权值w(edge(vi,vj))表示相邻像素在灰度、颜色或纹理方面的非负相似度。这里使用欧氏距离计算权值,如式(8):
w(edge(vi,vj))=||li-lj||+||ai-aj||+||bi-bj|| (8)
其中li,ai,bi是vi像素转换到LAB颜色空间对应的LAB通道的值。然后对边的集合按照权值非递减排序。
Step2:初始时S0作为最初的分割结果,其中组件数是n,也就是每个顶点都作为一个单独的组件,并且对每个组件Ck初始化其阈值Tk=τ(Ck),初始时|Ck|=1。
Step3:循环重复第4步m次,其中q=1,2…,m,也就是对所有的边遍历一遍。
Step4:在Sq-1分割结果基础上,按照下面的分割方法得到分割结果Sq。定义Qq=(vi,vj)表示遍历过程中的第q条边,先获取vi,vj所在的组件号C1,C2,如果C1和C2相等则说明这两个顶点本身已经在同一个组件里面,那么不进行任何其他处理,即Sq=Sq-1。如果C1和C2不相等,则按照公式3的定义判断是否属于同一个组件,也就是w(edge(vi,vj))的权值是否比Mint(C1,C2)要小,如果比Mint(C1,C2)小说明在一个组件里面,那么将组件C2合并到C1组件,设C′1是合并前的C1组件,则C1=C1′∪C2,更新合并后C1的阈值τ(C1)=τ(C1′)+τ(C2)。
Step5:由于考虑到显著性区域本身不会出现很小的区域,因此对于第4步划分的区域C1和C2进行一次过滤,即将顶点数小于阈值MIN_NUM的区域进行合并,试验中考虑到自适应性,即分辨率越高阈值越大,分辨率越低阈值越小,这里取原始图像总像素的0.4%作为MIN_NUM的值。循环重复第4步m次,其中q=1,2,…,m,即对所有的边重新遍历一次,但是修改判定是否属于同一个组件的规则,新的规则如式(9):
第5步结束后原始图片被自适应地分割成若干非规格化区域。
4.计算特征向量和质心坐标
接下来计算每个区域的特征向量和每个区域的质心坐标,区域rk的特征向量Ik=[Lm,am,bm]T,其中Lm,am,bm的计算如式(10):
其中n表示区域rk的像素总数,Li,ai,bi第i个像素对应的Lab空间的值,也就是每个区域的特征向量是该区域包含像素的Lab颜色的平均值。每个区域rk的质心坐标ck=(xk,yk),其中xk,yk的计算如式(11):
其中n表示区域rk的像素总数,xi,yi是区域rk像素的坐标,clos是整幅图像的列数,rows是整幅图像的行数。
5显著性区域计算
区域ri的显著性值使用公式(12)进行计算:
其中w(rj)是区域rj的权重值,表示区域rj对区域ri显著性的影响强度,通过观察可以发现大区域比小区域更容易形成更强的对比效果,因此这里使用每个区域的像素总数作为对应区域的权值,权值越大表明区域贡献值越大。式(12)中Uij是两个区域的空间距离,通过观察可以发现相邻区域的高对比度比较远区域的高对比度更加容易引起视觉的注意力,因此这里引入空间距离Uij来表示远近区域对区域ri的影响强度。其中空间距离权值Uij用公式(13)计算:
Uij=exp(-Cij(ri,rj)/ρ) (13)
其中ρ控制空间距离对区域显著性计算的影响强度,从公式可以看出ρ越大,空间距离权值对显著性的影响越小,试验中ρ取值为0.16。其中Cij(ri,rj),表示区域ri,rj之间的质心距离,计算如公式(14):
Cij(ri,rj)=||xi-xj||+||yi-yj|| (14)
其中(xi,yi)和(xj,yj)表示区域ri,rj的质心坐标。
Dij(ri,rj)表示两个区域在颜色空间的距离,类似于其他算法里面的两个像素之间的对比强度,计算如公式(15):
D(ri,rj)=||Ii-Ij|| (15)
这里面Ii,Ij表示区域ri和rj的特征向量,这里面使用欧式距离计算两个区域在颜色空间的距离。
以上所述,仅是本发明的较佳实施例,并非对本发明作任何形式上的限制,凡是依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均仍属本发明技术方案的保护范围。
Claims (3)
1.一种显著性区域的检测方法,其特征在于,包括以下步骤:
(1)开始;
(2)使用高斯滤波对原始图像进行预处理,根据公式(2)计算高斯卷积核中各个元素的值:
<mrow>
<mi>h</mi>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>,</mo>
<mi>j</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mrow>
<mn>2</mn>
<msup>
<mi>&pi;&sigma;</mi>
<mn>2</mn>
</msup>
</mrow>
</mfrac>
<msup>
<mi>e</mi>
<mrow>
<mo>-</mo>
<mfrac>
<mrow>
<msup>
<mrow>
<mo>(</mo>
<mi>i</mi>
<mo>-</mo>
<mi>k</mi>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
<mo>+</mo>
<msup>
<mrow>
<mo>(</mo>
<mi>j</mi>
<mo>-</mo>
<mi>k</mi>
<mo>-</mo>
<mn>1</mn>
<mo>)</mo>
</mrow>
<mn>2</mn>
</msup>
</mrow>
<mrow>
<mn>2</mn>
<msup>
<mi>&sigma;</mi>
<mn>2</mn>
</msup>
</mrow>
</mfrac>
</mrow>
</msup>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>2</mn>
<mo>)</mo>
</mrow>
</mrow>
其中i,j取值是从1到2k+1,参数σ为方差,参数k决定核矩阵的维数,高斯卷积核的维度是(2k+1)*(2k+1)维;
(3)将步骤(2)预处理后的图像从RGB颜色空间转换到LAB颜色空间;
(4)进行基于图的图像分割;
(5)计算各分割区域的特征向量和质心坐标;
(6)基于LAB颜色空间计算各分割区域的显著性值;
所述步骤(2)中σ取值为0.8,k取值为1,滤波窗口的大小是3*3;
所述步骤(4)包括以下分步骤:
(4.1)将图像映射为带权无向图G=<V,E>,图中每个顶点vi∈V对应于图像中的每个像素,每条边edge(vi,vj)∈E连接一对相邻像素vi和vj,边的权值w(edge(vi,vj))表示相邻像素在灰度、颜色或纹理方面的非负相似度,根据公式(8)使用欧氏距离计算权值:
w(edge(vi,vj))=||li-lj||+||ai-aj||+||bi-bj|| (8)
其中li,ai,bi是vi像素转换到Lab颜色空间对应的Lab通道的值,然后对边的集合按照权值非递减排序;
(4.2)初始时S0作为最初的分割结果,其中组件数是n,每个顶点都作为一个单独的组件,并且对每个组件Ck初始化其阈值Tk=τ(Ck),初始时|Ck|=1;
(4.3)循环重复步骤(4.4)m次,其中q=1,2…,m;
(4.4)Oq=(vi,vj)表示遍历过程中的第q条边,先获取vi,vj所在的组件号C1,C2,如果C1和C2相等则说明这两个顶点本身已经在同一个组件里面,那么Sq=Sq-1;如果C1和C2不相等,则判断w(edge(vi,vj))的权值是否比Mint(C1,C2)小,如果比Mint(C1,C2)小则说明在一个组件里面,那么将组件C2合并到C1组件,设C′1是合并前的C1组件,则C1=C1’∪C2,更新合并后C1的阈值τ(C1)=τ(C1’)+τ(C2);
(4.5)对于步骤(4.4)划分的区域C1和C2进行一次过滤,将顶点数小于阈值MIN_NUM的区域进行合并,取原始图像总像素的0.4%作为MIN_NUM的值;循环重复步骤(4.4)m次,其中q=1,2,…,m,按照公式(9)判定是否属于同一个组件:
<mrow>
<mi>D</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>C</mi>
<mn>1</mn>
</msub>
<mo>,</mo>
<msub>
<mi>C</mi>
<mn>2</mn>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mi>t</mi>
<mi>r</mi>
<mi>u</mi>
<mi>e</mi>
</mrow>
</mtd>
<mtd>
<mtable>
<mtr>
<mtd>
<mrow>
<mi>i</mi>
<mi>f</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>D</mi>
<mi>i</mi>
<mi>f</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>C</mi>
<mn>1</mn>
</msub>
<mo>,</mo>
<msub>
<mi>C</mi>
<mn>2</mn>
</msub>
<mo>)</mo>
</mrow>
<mo>&le;</mo>
<mi>M</mi>
<mi>I</mi>
<mi>N</mi>
<mo>_</mo>
<mi>N</mi>
<mi>U</mi>
<mi>M</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mi>f</mi>
<mi>a</mi>
<mi>l</mi>
<mi>s</mi>
<mi>e</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mi>o</mi>
<mi>t</mi>
<mi>h</mi>
<mi>e</mi>
<mi>r</mi>
<mi>w</mi>
<mi>i</mi>
<mi>s</mi>
<mi>e</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>9</mn>
<mo>)</mo>
</mrow>
<mo>.</mo>
</mrow>
2.根据权利要求1所述的显著性区域的检测方法,其特征在于,所述步骤(5)中:
计算每个区域的特征向量和每个区域的质心坐标,区域rk的特征向量Ik=[Lm,am,bm]T,其中Lm,am,bm按照公式(10)计算:
<mrow>
<mtable>
<mtr>
<mtd>
<mrow>
<msub>
<mi>L</mi>
<mi>m</mi>
</msub>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mi>n</mi>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mi>n</mi>
</munderover>
<msub>
<mi>L</mi>
<mi>i</mi>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>a</mi>
<mi>m</mi>
</msub>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mi>n</mi>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mi>n</mi>
</munderover>
<msub>
<mi>a</mi>
<mi>i</mi>
</msub>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<msub>
<mi>b</mi>
<mi>m</mi>
</msub>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mi>n</mi>
</mfrac>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mi>n</mi>
</munderover>
<msub>
<mi>b</mi>
<mi>i</mi>
</msub>
</mrow>
</mtd>
</mtr>
</mtable>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>10</mn>
<mo>)</mo>
</mrow>
</mrow>
其中n表示区域rk的像素总数,Li,ai,bi是第i个像素对应的Lab空间的值,每个区域的特征向量是该区域包含像素的Lab颜色的平均值;
每个区域rk的质心坐标ck=(xk,yk),其中xk,yk按照公式(11)计算:
<mrow>
<msub>
<mi>x</mi>
<mi>k</mi>
</msub>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mi>n</mi>
</mfrac>
<msubsup>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mi>n</mi>
</msubsup>
<msub>
<mi>x</mi>
<mi>i</mi>
</msub>
<mo>/</mo>
<mi>c</mi>
<mi>l</mi>
<mi>o</mi>
<mi>s</mi>
</mrow>
<mrow>
<msub>
<mi>y</mi>
<mi>k</mi>
</msub>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mi>n</mi>
</mfrac>
<msubsup>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mi>n</mi>
</msubsup>
<msub>
<mi>y</mi>
<mi>i</mi>
</msub>
<mo>/</mo>
<mi>r</mi>
<mi>o</mi>
<mi>w</mi>
<mi>s</mi>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>11</mn>
<mo>)</mo>
</mrow>
</mrow>
其中n表示区域rk的像素总数,xi,yi是区域rk像素的坐标,clos是整幅图像的列数,rows是整幅图像的行数。
3.根据权利要求2所述的显著性区域的检测方法,其特征在于,所述步骤(6)中:
区域ri的显著性值使用公式(12)进行计算:
<mrow>
<mi>S</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>r</mi>
<mi>i</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msub>
<mo>&Sigma;</mo>
<mrow>
<msub>
<mi>r</mi>
<mi>i</mi>
</msub>
<mo>&NotEqual;</mo>
<msub>
<mi>r</mi>
<mi>j</mi>
</msub>
</mrow>
</msub>
<msub>
<mi>U</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mi>w</mi>
<mrow>
<mo>(</mo>
<msub>
<mi>r</mi>
<mi>j</mi>
</msub>
<mo>)</mo>
</mrow>
<msub>
<mi>D</mi>
<mrow>
<mi>i</mi>
<mi>j</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>r</mi>
<mi>i</mi>
</msub>
<mo>,</mo>
<msub>
<mi>r</mi>
<mi>j</mi>
</msub>
<mo>)</mo>
</mrow>
<mo>-</mo>
<mo>-</mo>
<mo>-</mo>
<mrow>
<mo>(</mo>
<mn>12</mn>
<mo>)</mo>
</mrow>
</mrow>
其中w(rj)是区域rj的权重值,表示区域rj对区域ri显著性的影响强度,Uij是两个区域的空间距离,表示远近区域对区域ri的影响强度,其通过公式(13)计算:
Uij=exp(-Cij(ri,rj)/ρ) (13)
其中ρ控制空间距离对区域显著性计算的影响强度,ρ取值为0.16;其中Cij(ri,rj),表示区域ri,rj之间的质心距离,按照公式(14)计算:
Cij(ri,rj)=||xi-xj||+||yi-yj|| (14)
其中(xi,yi)和(xj,yj)表示区域ri,rj的质心坐标;
Dij(ri,rj)表示两个区域在颜色空间的距离,按照公式(15)计算:
D(ri,rj)=||Ii-Ij|| (15)
其中Ii,Ij表示区域ri和rj的特征向量。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510297326.XA CN104966285B (zh) | 2015-06-03 | 2015-06-03 | 一种显著性区域的检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510297326.XA CN104966285B (zh) | 2015-06-03 | 2015-06-03 | 一种显著性区域的检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104966285A CN104966285A (zh) | 2015-10-07 |
CN104966285B true CN104966285B (zh) | 2018-01-19 |
Family
ID=54220316
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510297326.XA Active CN104966285B (zh) | 2015-06-03 | 2015-06-03 | 一种显著性区域的检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104966285B (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105528765B (zh) * | 2015-12-02 | 2020-07-21 | 北京小米移动软件有限公司 | 处理图像的方法及装置 |
CN105825238B (zh) * | 2016-03-30 | 2019-04-30 | 江苏大学 | 一种视觉显著性目标的检测方法 |
CN110111295B (zh) * | 2018-02-01 | 2021-06-11 | 北京中科奥森数据科技有限公司 | 一种图像协同显著性检测方法及装置 |
CN108921820B (zh) * | 2018-05-30 | 2021-10-29 | 咸阳师范学院 | 一种基于颜色特征和聚类算法的显著性目标检测方法 |
CN109872300B (zh) * | 2018-12-17 | 2021-02-19 | 南京工大数控科技有限公司 | 一种摩擦片外观缺陷的视觉显著性检测方法 |
CN110009712B (zh) * | 2019-03-01 | 2021-05-04 | 华为技术有限公司 | 一种图文排版方法及其相关装置 |
CN110136110A (zh) * | 2019-05-13 | 2019-08-16 | 京东方科技集团股份有限公司 | 光伏组件缺陷的检测方法和装置 |
CN110288597B (zh) * | 2019-07-01 | 2021-04-02 | 哈尔滨工业大学 | 基于注意力机制的无线胶囊内窥镜视频显著性检测方法 |
CN110866460B (zh) * | 2019-10-28 | 2020-11-27 | 衢州学院 | 一种复杂场景视频中特定目标区域的侦测方法和装置 |
CN113436091B (zh) * | 2021-06-16 | 2023-03-31 | 中国电子科技集团公司第五十四研究所 | 一种面向对象的遥感图像多特征分类方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101984464A (zh) * | 2010-10-22 | 2011-03-09 | 北京工业大学 | 一种图像中不同区域视觉显著程度的检测方法 |
CN102129694A (zh) * | 2010-01-18 | 2011-07-20 | 中国科学院研究生院 | 一种图像显著区域检测方法 |
CN102509099A (zh) * | 2011-10-21 | 2012-06-20 | 清华大学深圳研究生院 | 一种图像显著区域检测方法 |
CN104103082A (zh) * | 2014-06-06 | 2014-10-15 | 华南理工大学 | 一种基于区域描述和先验知识的图像显著性检测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7397851B2 (en) * | 2001-05-10 | 2008-07-08 | Roman Kendyl A | Separate plane compression |
-
2015
- 2015-06-03 CN CN201510297326.XA patent/CN104966285B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102129694A (zh) * | 2010-01-18 | 2011-07-20 | 中国科学院研究生院 | 一种图像显著区域检测方法 |
CN101984464A (zh) * | 2010-10-22 | 2011-03-09 | 北京工业大学 | 一种图像中不同区域视觉显著程度的检测方法 |
CN102509099A (zh) * | 2011-10-21 | 2012-06-20 | 清华大学深圳研究生院 | 一种图像显著区域检测方法 |
CN104103082A (zh) * | 2014-06-06 | 2014-10-15 | 华南理工大学 | 一种基于区域描述和先验知识的图像显著性检测方法 |
Non-Patent Citations (1)
Title |
---|
基于视觉显著性的目标识别;张会;《中国优秀硕士学位论文全文数据库信息科技辑》;20140915;第19页 * |
Also Published As
Publication number | Publication date |
---|---|
CN104966285A (zh) | 2015-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104966285B (zh) | 一种显著性区域的检测方法 | |
CN115861135B (zh) | 一种应用于箱体全景探测的图像增强及识别方法 | |
CN105354865B (zh) | 多光谱遥感卫星影像自动云检测方法及*** | |
US8548247B2 (en) | Image processing apparatus and method, and program | |
EP2339533B1 (en) | Saliency based video contrast enhancement method | |
CN110348263B (zh) | 一种基于图像识别的二维随机码图像识别与提取方法 | |
CN110717896A (zh) | 基于显著性标签信息传播模型的板带钢表面缺陷检测方法 | |
CN102722891A (zh) | 一种图像显著度检测的方法 | |
CN105335725A (zh) | 一种基于特征融合的步态识别身份认证方法 | |
CN109711268B (zh) | 一种人脸图像筛选方法及设备 | |
US20150071532A1 (en) | Image processing device, computer-readable recording medium, and image processing method | |
EP2709063A1 (en) | Image processing device, computer-readable recording medium, and image processing method | |
CN107392211B (zh) | 基于视觉稀疏认知的显著目标检测方法 | |
CN112241745A (zh) | 一种基于光照不变颜色空间的特征点提取方法 | |
CN111274964A (zh) | 一种基于无人机视觉显著性分析水面污染物的检测方法 | |
CN106683043B (zh) | 一种多通道光学探测***的并行图像拼接方法、装置 | |
JP2014106713A (ja) | プログラム、方法、及び情報処理装置 | |
CN117456376A (zh) | 一种基于深度学习的遥感卫星影像目标检测方法 | |
CN107704864B (zh) | 基于图像对象性语义检测的显著目标检测方法 | |
CN106683044B (zh) | 一种多通道光学探测***的图像拼接方法、装置 | |
CN104778468B (zh) | 图像处理装置、图像处理方法以及监控设备 | |
CN111161291A (zh) | 基于目标景深信息的轮廓检测方法 | |
CN114529715B (zh) | 一种基于边缘提取的图像识别方法及*** | |
CN116342519A (zh) | 一种基于机器学习的图像处理方法 | |
CN112749713B (zh) | 一种基于人工智能的大数据图像识别***及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |