CN103337075B - 一种基于等照度线的图像显著度计算方法 - Google Patents
一种基于等照度线的图像显著度计算方法 Download PDFInfo
- Publication number
- CN103337075B CN103337075B CN201310248633.XA CN201310248633A CN103337075B CN 103337075 B CN103337075 B CN 103337075B CN 201310248633 A CN201310248633 A CN 201310248633A CN 103337075 B CN103337075 B CN 103337075B
- Authority
- CN
- China
- Prior art keywords
- image
- represent
- pixel
- significance
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于等照度线的图像显著度计算方法,包括:将待处理图像分为CIELAB颜色空间中的三个图像子图,分别对应a分量、b分量和L分量;获取每个图像子图的潜在结构位置信息和全局显著性信息;计算特征子通道显著图并构建最终的图像显著度图。与现有技术相比,本发明采用全局与局部相融合的方式实现图像显著度信息的提取,在保证显著度信息准确性的基础上过滤掉非显著度信息;采用非训练方式实现图像显著信息提取,不需要任何先验或高级别信息,计算方法简单高效;采用同一方法计算三个特征子通道的显著图,避免在构建最终的图像显著度图时出现信息丢失。
Description
技术领域
本发明涉及图像显著度检测技术领域,具体涉及一种基于等照度线的图像显著度计算方法。
背景技术
对于广大研究人员来说,人类视觉***始终是一个神奇的领域。其可以用一种令人惊叹的效率和准确率处理周围复杂的场景,准确的找到场景中与当前任务最相关的信息。每时每刻人们都被海量的信息包围着,这些信息甚至远远大于人类大脑所能处理的能力。人类视觉***可以有效的对这些信息进行过滤,去掉无用的冗余信息保留最有用的信息,而这一切都是在瞬间完成。著名心里学家WilliamJames早在1890年就给出了关于人类感知***这种特性的定义:“Everyoneknowswhatattentionis.Itisthetakingprocessionbythemind,inclearandvividform,ofoneoutofwhatseemseveralsimultaneouslypossibleobjectsortrainsofthought”。
在计算机视觉中,图像或视频中对象的检测与识别是最为基础也是研究最为广泛的领域。但如何做到快速、准确的实现这个目标却是摆在众多研究者面前的难题。一般来说,对图像中对象进行检测识别属于NP难度问题。为了提高识别的效率,一般都是采用启发式或者对待识别对象进行一定的限制,如大小、颜色等。为了提高对象识别的实用性,在识别之前对场景进行分析,提取场景中最重要区域是必不可少的。
图像显著度信息就是指图像中较为重要的或与当前任务相关的局部区域。有效的检测出图像中较为重要的子区域对于图像后续处理,如对象检测与识别、图像分段等有着重要的意义。因此,近年来图像显著度信息提取始终是一个很热的研究领域。一般来说,图像显著度信息提取算法可以分为基于生物视觉理论算法和基于数学算法两种。
如公开号为CN102509299A的中国专利文献公开了一种基于视觉注意机制的图像显著区域检测方法,该方法包括:首先,对一幅原始图像进行强度特征和颜色特征提取,其中颜色特征包括RG颜色分量和BY颜色分量,得到三幅特征图;其次,对三幅特征图进行视差计算,得到三幅相应的视差图;再次,根据三幅视差图计算出三个相应的权值系数;最后,根据三个权值系数,对三个视差图进行线性整合,得到最终的视觉显著图。
如公开号为CN102496157A的中国专利文献公开了一种基于高斯多尺度变换及颜色复杂度的图像检测方法,该方法先将原始图像从RGB颜色空间分别转化到HSV颜色空间和颜色空间,然后在HSV颜色空间中计算全局显著图,在颜色空间中计算局部显著度,然后再将计算出来的全局显著图和局部显著度进行归一化合并,从而得到总视觉显著图。
但当前的方法计算过程较为复杂,如需要对图像进行缩放,需要采用不同的算法对不同的图像特征子通道图提取显著信息,需要训练过程等;不仅如此,提取得到的图像显著信息还存在易于丢失、易受复杂背景和图像噪声干扰等问题。
发明内容
本发明提供了一种基于等照度线的图像显著度计算方法,该计算方法过程简单高效,获得的最终图像显著度图不存在信息丢失的问题。
一种基于等照度线的图像显著度计算方法,包括:
(1)将待处理图像分为CIELAB颜色空间中的三个图像子图,分别对应a分量、b分量和L分量;
(2)获取每个图像子图的潜在结构位置信息和全局显著性信息;
(3)计算特征子通道显著图并构建最终的图像显著度图。
本发明根据生物视觉原理,利用基于等照度线算法、中心与局部对比策略和全局与局部相融合策略实现待处理图像的显著性信息提取,提取的显著性信息不仅准确性高,不含其它噪声,并且不存在信息丢失的问题。
步骤(1)中,根据CIELAB颜色空间理论对待处理图像进行预处理,把待处理图像分为三个图像子图,分别是:亮度子图,对应L分量;红-绿变化子图,对应a分量;蓝-黄变化子图,对应b分量。
CIELAB空间是惯常用来描述人眼可见的所有颜色的最完备的色彩模型,该色彩模型具有极好的感知均匀性,其中分量L密切匹配人类亮度感知。将待处理图像分为三个图像子图后,即可方便地通过修改a和b分量的输出色阶来做精确的颜色平衡,或者用L分量来调整亮度对比。这种特性是其他颜色空间很难甚至是根本不可能实现的。
预处理完成后,计算每个图像子图的潜在结构位置信息和全局显著性信息。
本发明采用基于等照度线的方法获取潜在结构位置信息和全局显著性信息。所述等照度线就是图像中具有相同亮度的像素连接而成的曲线。图像等照度线具有如下特点:不同等照度线不相交;每一条等照度线在亮度和颜色上是独立变化的。根据这两点特点,一幅图像完全可以由其所包含的等照度线进行描述。等照度线曲率的计算公式为:
c=y”/(1+y'2)3/2(1);
其中,y'=dy/dx,y”=d2y/dx2。
此外,等照度线上曲率较大的部分,其密切圆半径较小且主要集中在图像中待识别对象中心周围的小区域内,而等照度线上曲率较小的部分,其密切圆半径较大,主要集中在图像中待识别对象中心附近比较大的区域周围。利用该现象,可以跳过传统方法构建尺度空间的策略直接检测图像中所存在的这些尺度信息,再利用这些尺度信息计算图像子图的显著性信息。
本发明通过计算等照度线所对应的密切圆去表征图像中待识别对象各个部分的尺度信息,密切圆的位置和大小由其中心点的位置和半径来确定。由于密切圆的半径和等照度线曲率成倒数关系,对公式(1)求倒数即可算出密切圆的半径值;并且,密切圆半径的方向受制于等照度线的梯度,并且总是指向亮度变化最大的那个方向;因此,将曲率c的倒数乘以相对应的等照度线的梯度方向来确定密切圆的半径。
由于密切圆可以反映图像中待识别对象各个部分的位置和尺度信息,因此将密切圆称为潜在结构。在图像中,每个潜在结构都会包含若干像素,这些像素具有相同的位移量并指向同一个中心点。潜在结构所包含的像素数量越多,就说明这个潜在结构越是重要,相应地,该潜在结构中心像素的显著度也越高。该潜在结构中心像素的显著性信息即为全局显著性信息。
所述潜在结构位置信息和全局显著性信息的获取方法为:
(2.1)分别通过隐式求导法求解y'=dy/dx,y”=d2y/dx2:
其中,(x,y)表示笛卡尔坐标空间中等照度线上一个像素点坐标;Lx和Ly分别表示等照度线Lv对x和y的一阶导数;Lxx,Lxy、Lyx和Lyy表示隐式偏导数:
将式(2)代入式(3),得到:
(2.2)由式(2)和式(4)求解等照度线曲率c:
(2.3)根据式(5),并利用等照度线的梯度方向来确定等照度线对应的密切圆的半径,密切圆半径的计算公式为:
d(x,y)表示从等照度线上像素点(x,y)到对应密切圆中心的位移向量,位移向量中包含了像素点(x,y)的方向信息以及该像素点(x,y)到对应密切圆中心的距离信息,根据该方向和距离信息即可获得像素点(x,y)所在的密切圆的位置信息,即潜在结构的位置信息;
按照式(6)对图像子图中的每个像素点进行计算,获得每个像素点的方向和长度信息,将所有具有相同位移向量(相同长度并指向同一中心点)的像素点累加,即得到所述全局显著性信息或全局显著度。
步骤(3)中,通过调用从三个图像子图中获得的潜在结构位置信息和全局显著性信息来计算特征子通道的显著度图。所述特征子通道为亮度子通道、颜色子通道和方向子通道。具体地,特征子通道显著图和图像显著度图的计算方法为:
(3.1)调用所述潜在结构位置信息构建中心区域及其周围区域:将潜在结构作为中心区域d,计算该中心区域d的周围区域douter,计算公式为:
douter=k×d(7);
其中,k是一个常系数参数;
在一幅图像中,潜在结构的数量非常多并且散布在图像各处,在所有这些潜在结构当中,所感兴趣的是那些具有明显特征,与其周围明显存在区别的潜在结构;这是因为这些潜在结构符合人类视觉***中关于周围场景显著度的定义,即某一个潜在结构与其周围区域的区别越是明显,其显著度越高;
由于潜在结构是图像中待识别对象的某个小局部,一般来说都比较小,其对应的周围区域同样也不大。经测试,将k值设置为1.4。确定中心区域d和周围区域douter后,就可以计算中心区域与周围区域的对比度(即局部显著性信息或局部显著度),以构建特征子通道的显著度图;
本发明中,采用积分图像策略计算中心区域与周围区域的对比度(即局部显著性信息或局部显著度),并且,为提高图像显著性信息的性能并消除图像中噪声点的影响,将全局显著度用作该对比度的权值;
(3.2)对于亮度子通道和颜色子通道的显著度图,计算公式为:
其中,(x,y)表示图像笛卡尔坐标空间中的一个像素点,RInt表示亮度子通道显著图,RInt(x,y)表示像素点(x,y)在亮度子通道中的显著度;RCol表示颜色子通道显著图,RCol(x,y)表示像素点(x,y)在颜色子通道中的显著度;Sg表示全局显著度,Sg(x,y)表示像素点(x,y)的全局显著度;rcenter和rsurround分别表示每个图像子图中,中心区域d与周围区域douter以像素点(x,y)为中心的半径;L表示亮度子图,a表示红-绿变化子图,b表示蓝-黄变化子图;
(3.3)对于方向子通道的显著图,计算公式为:
其中,ROri表示方向子通道显著图,ROri(x,y)表示像素点(x,y)在方向子通道中的显著度;r表示以像素点(x,y)为中心的中心区域d与其周围区域douter的方向对比度;
所述中心区域d与其周围区域douter的方向对比度的计算方法为:以像素点(m,n)为潜在结构的中心,在该潜在结构(密切圆)上任意选取6个像素点构成一个局部区域,并采用积分图像策略构建该局部区域的方向向量(Ix’,Iy’),其中,
其中,Ix’表示局部区域方向向量在x轴的分量,Iy’表示方向向量在y轴的分量,Sx和Sy分别表示图像中该局部区域长度和高度的一半,S(p0:p1:p4:p3)、S(p1:p2:p5:p4)、S(p6:p7:p8:p11)和S(p11:p8:p9:p10)表示图像中该局部区域对应子区域中所有像素值的均值;
再利用欧式距离公式计算中心区域d与其周围区域douter的方向对比度,欧式距离公式为:
其中,表示图像中心区域方向向量在x轴的分量,表示图像周围区域方向向量在x轴的分量,表示图像中心区域方向向量在y轴的分量,表示图像周围区域方向向量在y轴的分量。
(3.4)将得到的三个特征子通道显著图进行线性组合,构建最终的图像显著度图:
其中,Msaliency为待处理图像的图像显著度图。
与现有技术相比,本发明的有益效果为:
(1)采用全局与局部相融合的方式实现图像显著性信息的提取,在保证显著性信息准确性的基础上过滤掉非显著性信息;
(2)采用非训练方式实现图像显著性信息的提取,不需要任何先验或高级别信息,计算方法简单高效;
(3)采用同一方法计算三个特征子通道的显著图,避免在构建最终的图像显著度图时出现信息丢失。
附图说明
图1为本发明一种基于等照度线的图像显著度计算方法的流程图;
图2为等照度线梯度方向示意图;
图3为潜在结构与其周围区域的对比度的计算流程图。
具体实施方式
如图1所示,本发明一种基于等照度线的图像显著度计算方法,包括:
(1)将待处理图像分为CIELAB颜色空间中的三个图像子图,分别对应a分量、b分量和L分量;
根据CIELAB颜色空间理论对待处理图像进行预处理,把待处理图像分为三个图像子图,分别是:亮度子图,对应L分量;红-绿变化子图,对应a分量;蓝-黄变化子图,对应b分量;
(2)计算每个图像子图的潜在结构位置信息和全局显著性信息;
采用基于等照度线的方法获取潜在结构位置信息和全局显著性信息(即图1中所示的“基于等照度线计算”),获取方法为:
(2.1)等照度线曲率:
c=y”/(1+y'2)3/2(1);
其中,y'=dy/dx,y”=d2y/dx2;
分别通过隐式求导法求解y'=dy/dx,y”=d2y/dx2:
其中,(x,y)表示笛卡尔坐标空间中等照度线上的一个像素点;Lx和Ly分别表示等照度线Lv对x和y的一阶导数;Lxx,Lxy、Lyx和Lyy表示而且隐式偏导数;
将式(2)代入式(3),得到:
(2.2)由式(2)和式(4)求解等照度线曲率c:
(2.3)由于密切圆的半径和等照度线曲率成倒数关系,对公式(1)求倒数即可算出密切圆的半径值;并且,密切圆半径的方向受制于等照度线的梯度,并且总是指向亮度变化最大的那个方向(如图2所示);因此可根据式(5),并利用等照度线的梯度方向来确定等照度线对应的密切圆的半径,密切圆半径的计算公式为:
d(x,y)表示从等照度线上像素点(x,y)到对应密切圆中心的位移向量;用以表征密切圆的位置信息,即潜在结构的位置信息;
按照式(6)对图像子图中的每个像素点进行计算,将所有具有相同位移向量并指向同一中心点的像素点累加,即得到全局显著性信息。
步骤(3)中,通过调用从三个图像子图中获得的潜在结构位置信息和全局显著性信息来计算特征子通道的显著度图。具体地,特征子通道显著图和图像显著度图的计算方法为:
(3.1)调用潜在结构位置信息构建中心区域及其周围区域:将潜在结构作为中心区域d,计算该中心区域d的周围区域douter,计算公式为:
douter=k×d(7);
将k值设置为1.4。
确定中心区域d和周围区域douter后,就可以计算中心区域与周围区域的对比度,以构建特征子通道的显著度图;
本发明中,采用积分图像策略计算中心区域与其周围区域的对比度(即图1中所示的“中心局部对比度计算”),并且,为提高图像显著性信息的性能并消除图像中噪声点的影响,将全局显著性信息用作该对比度的权值;
(3.2)对于亮度子通道和颜色子通道的显著度图,计算公式为:
其中,(x,y)表示图像笛卡尔坐标空间中的一个像素点,RInt表示亮度子通道显著图,RInt(x,y)表示像素点(x,y)在亮度子通道中的显著度;RCol表示颜色子通道显著图,RCol(x,y)表示像素点(x,y)在颜色子通道中的显著度;Sg表示全局显著度,Sg(x,y)表示像素点(x,y)的全局显著度;rcenter和rsurround分别表示每个图像子图中,中心区域d与周围区域douter以像素点(x,y)为中心的半径;L表示亮度子图,a表示红-绿变化子图,b表示蓝-黄变化子图;
(3.3)对于方向子通道的显著图,计算公式为:
其中,ROri表示方向子通道显著图,ROri(x,y)表示像素点(x,y)在方向子通道中的显著度;r表示以像素点(x,y)为中心的中心区域d与其周围区域douter的方向对比度;
中心区域d与其周围区域douter的方向对比度的计算方法如图3所示,以像素点(m,n)为潜在结构的中心,在该潜在结构(密切圆)上任意选取6个像素点构成一个局部区域,并采用积分图像策略构建该局部区域的方向向量(Ix’,Iy’),其中,
其中,Ix’表示局部区域方向向量在x轴的分量,Iy’表示方向向量在y轴的分量,Sx和Sy分别表示图像中该局部区域长度和高度的一半,S(p0:p1:p4:p3)、S(p1:p2:p5:p4)、S(p6:p7:p8:p11)和S(p11:p8:p9:p10)表示图像中该局部区域对应子区域中所有像素值的均值;
再利用欧式距离公式计算中心区域d与其周围区域douter的方向对比度,欧式距离公式为:
其中,表示图像中心区域方向向量在x轴的分量,表示图像周围区域方向向量在x轴的分量,表示图像中心区域方向向量在y轴的分量,表示图像周围区域方向向量在y轴的分量。
(3.4)将得到的三个特征子通道显著图进行线性组合,构建最终的图像显著度图:
其中,Msaliency为待处理图像的图像显著度图。
Claims (3)
1.一种基于等照度线的图像显著度计算方法,包括:
(1)将待处理图像分为CIELAB颜色空间中的三个图像子图,分别对应a分量、b分量和L分量;
(2)获取每个图像子图的潜在结构位置信息和全局显著性信息;
(3)计算特征子通道显著图并构建最终的图像显著度图;
所述特征子通道为亮度子通道、颜色子通道和方向子通道;
特征子通道显著图和图像显著度图的计算方法为:
(3.1)将潜在结构作为中心区域d,计算该中心区域的周围区域douter,计算公式为:
douter=k×d(7);
其中,k是一个常系数参数;
(3.2)对于亮度子通道和颜色子通道的显著度图,计算公式为:
其中,(x,y)表示图像笛卡尔坐标空间中的一个像素点,RInt表示亮度子通道显著图,RInt(x,y)表示像素点(x,y)在亮度子通道中的显著度;RCol表示颜色子通道显著图,RCol(x,y)表示像素点(x,y)在颜色子通道中的显著度;Sg表示全局显著度,Sg(x,y)表示像素点(x,y)的全局显著度;表示像素点(x,y)在亮度子图中的全局显著度;式中η∈{a,b},表示像素点(x,y)在a和b子图中的全局显著度;表示亮度子图中,中心区域d以像素点(x,y)为中心的半径;表示亮度子图中,周围区域douter以像素点(x,y)为中心的半径;表示a和b子图中,中心区域d以像素点(x,y)为中心的半径;表示a和b子图中,周围区域douter以像素点(x,y)为中心的半径;L表示亮度子图,a表示红-绿变化子图,b表示蓝-黄变化子图;
(3.3)对于方向子通道的显著图,计算公式为:
其中,ROri表示方向子通道显著图,ROri(x,y)表示像素点(x,y)在方向子通道中的显著度;式中η∈{L,a,b},表示像素点(x,y)在a、b和L子图中的全局显著度;rη(x,y)表示a、b和L子图中,以像素点(x,y)为中心的中心区域d与其周围区域douter的方向对比度;
所述的步骤(3.3)中,中心区域d与其周围区域douter的方向对比度的计算方法为:以像素点(m,n)为潜在结构的中心,在该潜在结构上任意选取6个像素点构成一个局部区域,采用积分图像策略构建该局部区域的方向向量(Ix’,Iy’),其中,
其中,Ix’表示局部区域方向向量在x轴的分量,Iy’表示方向向量在y轴的分量,Sx和Sy分别表示图像中局部区域长度和高度的一半,S(p0:p1:p4:p3)、S(p1:p2:p5:p4)、S(p6:p7:p8:p11)和S(p11:p8:p9:p10)表示图像中局部区域对应子区域所有像素值的均值;
再利用欧式距离公式计算中心区域d与其周围区域douter的方向对比度r,欧式距离公式为:
其中,表示图像中心区域方向向量在x轴的分量,表示图像周围区域方向向量在x轴的分量,表示图像中心区域方向向量在y轴的分量,表示图像周围区域方向向量在y轴的分量;
(3.4)将得到的三个特征子通道显著图进行线性组合,构建最终的图像显著度图:
其中,Msaliency为待处理图像的图像显著度图。
2.如权利要求1所述的图像显著度计算方法,其特征在于,所述潜在结构位置信息和全局显著性信息的获取方法为:
(2.1)分别通过隐式求导法求解y'=dy/dx,y”=d2y/dx2:
其中,(x,y)表示笛卡尔坐标空间中等照度线上的一个像素点;Lx和Ly分别表示等照度线Lv对x和y的一阶导数;Lxx,Lxy、Lyx和Lyy表示隐式偏导数;
将式(2)代入式(3),得到:
(2.2)由式(2)和式(4)求解等照度线曲率c:
(2.3)根据式(5),并利用等照度线的梯度方向来确定等照度线对应的密切圆的半径,密切圆半径的计算公式为:
d(x,y)表示从等照度线上像素点(x,y)到对应密切圆中心的位移向量,用以表征密切圆的位置信息,即潜在结构的位置信息;
按照式(6)对图像子图中的每个像素点进行计算,将所有具有相同位移向量的像素点累加,即得到所述全局显著性信息。
3.如权利要求1所述的图像显著度计算方法,其特征在于,k为1.4。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310248633.XA CN103337075B (zh) | 2013-06-20 | 2013-06-20 | 一种基于等照度线的图像显著度计算方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310248633.XA CN103337075B (zh) | 2013-06-20 | 2013-06-20 | 一种基于等照度线的图像显著度计算方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103337075A CN103337075A (zh) | 2013-10-02 |
CN103337075B true CN103337075B (zh) | 2016-04-27 |
Family
ID=49245223
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310248633.XA Expired - Fee Related CN103337075B (zh) | 2013-06-20 | 2013-06-20 | 一种基于等照度线的图像显著度计算方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103337075B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104050674B (zh) * | 2014-06-27 | 2017-01-25 | 中国科学院自动化研究所 | 一种显著性区域检测方法及装置 |
CN105931180B (zh) * | 2016-04-12 | 2019-02-22 | 西安电子科技大学 | 利用显著信息引导的图像不规则马赛克拼接方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1965331A (zh) * | 2004-03-12 | 2007-05-16 | 皇家飞利浦电子股份有限公司 | 图像边缘检测 |
CN102800086A (zh) * | 2012-06-21 | 2012-11-28 | 上海海事大学 | 一种海上场景显著性检测方法 |
-
2013
- 2013-06-20 CN CN201310248633.XA patent/CN103337075B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1965331A (zh) * | 2004-03-12 | 2007-05-16 | 皇家飞利浦电子股份有限公司 | 图像边缘检测 |
CN102800086A (zh) * | 2012-06-21 | 2012-11-28 | 上海海事大学 | 一种海上场景显著性检测方法 |
Non-Patent Citations (6)
Title |
---|
A Model of Saliency-Based Visual Attention for Rapid Scene Analysis;Laurent Itti等;《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》;19981130;第20卷(第11期);第1254-1259页 * |
Boosting Scalable Gradient Features for Adaptive Real-Time Tracking;Dominik A.Klein等;《2011 IEEE International Conference on Robotics and Automation》;20110513;第4411-4416页 * |
Efficient Graph-Based Image Segmentation;PEDRO F. FELZENSZWALB等;《International Journal of Computer Vision》;20041231;第59卷(第2期);第167-181页 * |
Fast Digital Image Inpainting;Manuel M. Oliveira等;《Proceedings of the International Conference on Visualization, Imaging and Image Processing (VIIP 2001)》;20010905;第1-6页 * |
Image Saliency by Isocentric Curvedness and Color;Roberto Valenti等;《2009 IEEE 12th International Conference on Computer Vision(ICCV)》;20091002;第2185-2192页 * |
Isophote-Based Interpolation;Bryan S. Morse等;《1998 International Conference on Image Processing, 1998. ICIP 98. Proceedings》;19981007;第3卷;第227-231页 * |
Also Published As
Publication number | Publication date |
---|---|
CN103337075A (zh) | 2013-10-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11830230B2 (en) | Living body detection method based on facial recognition, and electronic device and storage medium | |
CN109753885B (zh) | 一种目标检测方法、装置以及行人检测方法、*** | |
US8861853B2 (en) | Feature-amount calculation apparatus, feature-amount calculation method, and program | |
CN103530599B (zh) | 一种真实人脸和图片人脸的区别方法和*** | |
CN103020985B (zh) | 一种基于场量分析的视频图像显著性检测方法 | |
CN103020992B (zh) | 一种基于运动颜色关联的视频图像显著性检测方法 | |
CN105184830B (zh) | 一种对称图像对称轴检测定位方法 | |
CN106991689B (zh) | 基于fhog和颜色特征的目标跟踪方法及gpu加速 | |
CN104966285B (zh) | 一种显著性区域的检测方法 | |
EP3566172A1 (en) | Systems and methods for lane-marker detection | |
CN110276317A (zh) | 一种物体尺寸检测方法、物体尺寸检测装置及移动终端 | |
CN105457908B (zh) | 基于单目ccd的小尺寸玻璃面板的分拣快速定位方法及*** | |
CN103632153B (zh) | 一种基于区域的图像显著图提取方法 | |
CN102947863A (zh) | 移动物体检测装置 | |
CN102222341A (zh) | 运动特征点检测方法及装置、运动目标检测方法及装置 | |
CN103268482A (zh) | 一种低复杂度的手势提取和手势深度获取方法 | |
Zhang et al. | Incorporating depth information into few-shot semantic segmentation | |
CN103632372A (zh) | 一种视频显著图提取方法 | |
CN103337075B (zh) | 一种基于等照度线的图像显著度计算方法 | |
Zhou et al. | Hierarchical context-aware hand detection algorithm for naturalistic driving | |
CN104376312A (zh) | 基于词袋压缩感知特征提取的人脸识别方法 | |
Manoharan et al. | Image processing-based framework for continuous lane recognition in mountainous roads for driver assistance system | |
CN105138979A (zh) | 基于立体视觉的运动人体头部检测方法 | |
CN106548180B (zh) | 一种获取模糊不变图像的特征描述子的方法 | |
Chen et al. | Illumination processing in face recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20160427 Termination date: 20190620 |