CN103632153B - 一种基于区域的图像显著图提取方法 - Google Patents

一种基于区域的图像显著图提取方法 Download PDF

Info

Publication number
CN103632153B
CN103632153B CN201310651864.5A CN201310651864A CN103632153B CN 103632153 B CN103632153 B CN 103632153B CN 201310651864 A CN201310651864 A CN 201310651864A CN 103632153 B CN103632153 B CN 103632153B
Authority
CN
China
Prior art keywords
region
color
represent
pixel
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201310651864.5A
Other languages
English (en)
Other versions
CN103632153A (zh
Inventor
邵枫
姜求平
蒋刚毅
郁梅
李福翠
彭宗举
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZHEJIANG DUYAN INFORMATION TECHNOLOGY Co.,Ltd.
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN201310651864.5A priority Critical patent/CN103632153B/zh
Publication of CN103632153A publication Critical patent/CN103632153A/zh
Application granted granted Critical
Publication of CN103632153B publication Critical patent/CN103632153B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于区域的图像显著图提取方法,其首先通过计算图像的全局颜色直方图,得到基于全局颜色直方图的图像显著图,然后采用超像素分割技术对图像进行分割,分别计算各个区域的颜色对比度和空间稀疏性,并利用区域之间的相似性进行加权,得到基于区域颜色对比度的图像显著图和基于区域空间稀疏性的图像显著图,最后对基于全局颜色直方图的图像显著图、基于区域颜色对比度的图像显著图和基于区域空间稀疏性的图像显著图进行融合,得到最终的图像显著图,优点是获得的图像显著图能够较好地反映全局和局部区域的显著变化情况,符合图像显著语义的特征。

Description

一种基于区域的图像显著图提取方法
技术领域
本发明涉及一种图像信号的处理方法,尤其是涉及一种基于区域的图像显著图提取方法。
背景技术
在人类视觉接收与信息处理中,由于大脑资源有限以及外界环境信息重要性区别,在处理过程中人脑对外界环境信息并不是一视同仁的,而是表现出选择特征。人们在观看图像或者视频片段时注意力并非均匀分布到图像的每个区域,而是对某些显著区域关注度更高。如何将视频中视觉注意度高的显著区域检测并提取出来是计算机视觉以及基于内容的视频检索领域的一个重要的研究内容。
现有的显著图模型是一种模拟生物体视觉注意机制的选择性注意模型,其通过计算每个像素点在颜色、亮度、方向方面与周边背景的对比,并将所有像素点的显著值构成一张显著图,然而这类方法并不能很好地提取图像显著图信息,这是因为基于像素的显著特征并不能很好地反映人眼观看时的显著语义特征,而基于区域的显著特征能够有效地提高提取的稳定性和准确性,因此,如何对图像进行区域分割,如何对各个区域的特征进行提取,如何对各个区域的显著特征进行描述,如何度量区域本身的显著度和区域与区域之间的显著度,都是对基于区域的显著图提取中需要研究解决的问题。
发明内容
本发明所要解决的技术问题是提供一种符合显著语义特征,且有较高提取稳定性和准确性的基于区域的图像显著图提取方法。
本发明解决上述技术问题所采用的技术方案为:一种基于区域的图像显著图提取方法,其特征在于包括以下步骤:
①将待处理的源图像记为{Ii(x,y)},其中,i=1,2,3,1≤x≤W,1≤y≤H,W表示{Ii(x,y)}的宽,H表示{Ii(x,y)}的高,Ii(x,y)表示{Ii(x,y)}中坐标位置为(x,y)的像素点的第i个分量的颜色值,第1个分量为R分量、第2个分量为G分量和第3个分量为B分量;
②首先获取{Ii(x,y)}的量化图像及量化图像的全局颜色直方图,然后根据{Ii(x,y)}的量化图像,获取{Ii(x,y)}中的每个像素点的颜色种类,再根据{Ii(x,y)}的量化图像的全局颜色直方图和{Ii(x,y)}中的每个像素点的颜色种类,获取{Ii(x,y)}的基于全局颜色直方图的图像显著图,记为{HS(x,y)},其中,HS(x,y)表示{HS(x,y)}中坐标位置为(x,y)的像素点的像素值,亦表示{Ii(x,y)}中坐标位置为(x,y)的像素点的基于全局颜色直方图的显著值;
③采用超像素分割技术将{Ii(x,y)}分割成M个互不重叠的区域,然后将{Ii(x,y)}重新表示为M个区域的集合,记为{SPh},再计算{SPh}中的各个区域之间的相似性,将{SPh}中的第p个区域与第q个区域之间的相似性记为Sim(SPp,SPq),其中,M≥1,SPh表示{SPh}中的第h个区域,1≤h≤M,1≤p≤M,1≤q≤M,p≠q,SPp表示{SPh}中的第p个区域,SPq表示{SPh}中的第q个区域;
④根据{SPh}中的各个区域之间的相似性,获取{Ii(x,y)}的基于区域颜色对比度的图像显著图,记为{NGC(x,y)},其中,NGC(x,y)表示{NGC(x,y)}中坐标位置为(x,y)的像素点的像素值;
⑤根据{SPh}中的各个区域之间的相似性,获取{Ii(x,y)}的基于区域空间稀疏性的图像显著图,记为{NSS(x,y)},其中,NSS(x,y)表示{NSS(x,y)}中坐标位置为(x,y)的像素点的像素值;
⑥对{Ii(x,y)}的基于全局颜色直方图的图像显著图{HS(x,y)}、{Ii(x,y)}的基于区域颜色对比度的图像显著图{NGC(x,y)}及{Ii(x,y)}的基于区域空间稀疏性的图像显著图{NSS(x,y)}进行融合,得到{Ii(x,y)}的最终的图像显著图,记为{Sal(x,y)},将{Sal(x,y)}中坐标位置为(x,y)的像素点的像素值记为Sal(x,y),Sal(x,y)=HS(x,y)×NGC(x,y)×NSS(x,y)。
所述的步骤②的具体过程为:
②-1、对{Ii(x,y)}中的每个像素点的各个分量的颜色值分别进行量化,得到{Ii(x,y)}的量化图像,记为{Pi(x,y)},将{Pi(x,y)}中坐标位置为(x,y)的像素点的第i个分量的颜色值记为Pi(x,y),其中,符号为向下取整符号;
②-2、计算{Pi(x,y)}的全局颜色直方图,记为{H(k)|0≤k≤4095},其中,H(k)表示{Pi(x,y)}中属于第k种颜色的所有像素点的个数;
②-3、根据{Pi(x,y)}中的每个像素点的各个分量的颜色值,计算{Ii(x,y)}中对应像素点的颜色种类,将{Ii(x,y)}中坐标位置为(x,y)的像素点的颜色种类记为kxy,kxy=P3(x,y)×256+P2(x,y)×16+P1(x,y),其中,P3(x,y)表示{Pi(x,y)}中坐标位置为(x,y)的像素点的第3个分量的颜色值,P2(x,y)表示{Pi(x,y)}中坐标位置为(x,y)的像素点的第2个分量的颜色值,P1(x,y)表示{Pi(x,y)}中坐标位置为(x,y)的像素点的第1个分量的颜色值;
②-4、计算{Ii(x,y)}中的每个像素点的基于全局颜色直方图的显著值,将{Ii(x,y)}中坐标位置为(x,y)的像素点的基于全局颜色直方图的显著值记为HS(x,y), HS ( x , y ) = Σ k = 0 4095 ( H ( k ) × D ( k xy , k ) ) , D ( k xy , k ) = ( p k xy , 1 - p k , 1 ) 2 + ( p k xy , 2 - p k , 2 ) 2 + ( p k xy , 3 - p k , 3 ) 2 , 其中,D(kxy,k)表示{H(k)|0≤k≤4095}中的第kxy种颜色与第k种颜色之间的欧氏距离, p k xy , 2 = mod ( k xy / 16 ) , pk,2=mod(k/16), 表示{H(k)|0≤k≤4095}中的第kxy种颜色对应的第1个分量的颜色值,表示{H(k)|0≤k≤4095}中的第kxy种颜色对应的第2个分量的颜色值,表示{H(k)|0≤k≤4095}中的第kxy种颜色对应的第3个分量的颜色值,pk,1表示{H(k)|0≤k≤4095}中的第k种颜色对应的第1个分量的颜色值,pk,2表示{H(k)|0≤k≤4095}中的第k种颜色对应的第2个分量的颜色值,pk,3表示{H(k)|0≤k≤4095}中的第k种颜色对应的第3个分量的颜色值,mod()为取余数操作函数;
②-5、根据{Ii(x,y)}中的每个像素点的基于全局颜色直方图的显著值,得到{Ii(x,y)}的基于全局颜色直方图的图像显著图,记为{HS(x,y)}。
所述的步骤③中{SPh}中的第p个区域与第q个区域之间的相似性Sim(SPp,SPq)的获取过程为:
③-1、对{SPh}中的每个区域中的每个像素点的各个分量的颜色值分别进行量化,得到{SPh}中的每个区域的量化区域,将{SPh}中的第h个区域的量化区域记为{Ph,i(xh,yh)},将{Ph,i(xh,yh)}中坐标位置为(xh,yh)的像素点的第i个分量的颜色值记为Ph,i(xh,yh),假设{Ph,i(xh,yh)}中坐标位置为(xh,yh)的像素点在{Ii(x,y)}中的坐标位置为(x,y),则其中,1≤xh≤Wh,1≤yh≤Hh,Wh表示{SPh}中的第h个区域的宽度,Hh表示{SPh}中的第h个区域的高度,符号为向下取整符号;
③-2、计算{SPh}中的每个区域的量化区域的颜色直方图,将{Ph,i(xh,yh)}的颜色直方图记为其中,表示{Ph,i(xh,yh)}中属于第k种颜色的所有像素点的个数;
③-3、对{SPh}中的每个区域的量化区域的颜色直方图进行归一化操作,得到对应的归一化后的颜色直方图,将对进行归一化操作后得到的归一化后的颜色直方图记为 { H ′ SP h ( k ) | 0 ≤ k ≤ 4095 } , H ′ SP h ( k ) = H SP h ( k ) Σ h ′ = 1 M H SP h ′ ( k ) , 其中,表示{SPh}中的第h个区域的量化区域{Ph,i(xh,yh)}中属于第k种颜色的像素点的出现概率,表示{SPh}中的第h'个区域的量化区域{Ph',i(xh',yh')}中属于第k种颜色的所有像素点的个数,1≤xh'≤Wh',1≤yh'≤Hh',Wh'表示{SPh}中的第h'个区域的宽度,Hh'表示{SPh}中的第h'个区域的高度,Ph',i(xh',yh')表示{Ph',i(xh',yh')}中坐标位置为(xh',yh')的像素点的第i个分量的颜色值;
③-4、计算{SPh}中的第p个区域与第q个区域之间的相似性,记为Sim(SPp,SPq),Sim(SPp,SPq)=Simc(SPp,SPq)×Simd(SPp,SPq),Simc(SPp,SPq)表示{SPh}中的第p个区域与{SPh}中的第q区域之间的颜色相似性, Sim c ( SP p , SP q ) = Σ k = 0 4095 min ( H ′ SP p ( k ) , H ′ SP q ( k ) ) , Simd(SPp,SPq)表示{SPh}中的第p个区域与{SPh}中的第q区域之间的空间相似性,其中,SPp表示{SPh}中的第p个区域,SPq表示{SPh}中的第q个区域,表示{SPh}中的第p个区域的量化区域{Pp,i(xp,yp)}中属于第k种颜色的像素点的出现概率,表示{SPh}中的第q个区域的量化区域{Pq,i(xq,yq)}中属于第k种颜色的像素点的出现概率,1≤xp≤Wp,1≤yp≤Hp,Wp表示{SPh}中的第p个区域的宽度,Hp表示{SPh}中的第p个区域的高度,Pp,i(xp,yp)表示{Pp,i(xp,yp)}中坐标位置为(xp,yp)的像素点的第i个分量的颜色值,1≤xq≤Wq,1≤yq≤Hq,Wq表示{SPh}中的第q个区域的宽度,Hq表示{SPh}中的第q个区域的高度,Pq,i(xq,yq)表示{Pq,i(xq,yq)}中坐标位置为(xq,yq)的像素点的第i个分量的颜色值,min()为取最小值函数,表示{SPh}中的第p个区域中的中心像素点的坐标位置,表示{SPh}中的第q个区域中的中心像素点的坐标位置,符号“‖‖”为求欧式距离符号。
所述的步骤④的具体过程为:
④-1、计算{SPh}中的每个区域的颜色对比度,将{SPh}中的第h个区域的颜色对比度记为 NGC SP h = Σ q = 1 M W ( SP h , SP q ) × | | m SP h - m SP q | | , 其中,SPh表示{SPh}中的第h个区域,SPq表示{SPh}中的第q个区域,表示{SPh}中的第h个区域中包含的像素点的总个数,Simd(SPh,SPq)表示{SPh}中的第h个区域与{SPh}中的第q区域之间的空间相似性, 表示{SPh}中的第h个区域中的中心像素点的坐标位置,表示{SPh}中的第q个区域中的中心像素点的坐标位置,符号“‖‖”为求欧式距离符号,表示{SPh}中的第h个区域的颜色均值向量,表示{SPh}中的第q个区域的颜色均值向量;
④-2、对{SPh}中的每个区域的颜色对比度进行归一化操作,得到对应的归一化后的颜色对比度,将对{SPh}中的第h个区域的颜色对比度进行归一化操作后得到的归一化后的颜色对比度记为 其中,NGCmin表示{SPh}中的M个区域中最小的颜色对比度,NGCmax表示{SPh}中的M个区域中最大的颜色对比度;
④-3、计算{SPh}中的每个区域的基于颜色对比度的显著值,将{SPh}中的第h个区域的基于颜色对比度的显著值记为 NGC ′ ′ SP h = Σ q = 1 M ( Sim ( SP h , SP q ) × NGC ′ SP h ) Σ q = 1 M Sim ( SP h , SP q ) , 其中,Sim(SPh,SPq)表示{SPh}中的第h个区域与第q个区域之间的相似性;
④-4、将{SPh}中的每个区域的基于颜色对比度的显著值作为对应区域中的所有像素点的显著值,从而得到{Ii(x,y)}的基于区域颜色对比度的图像显著图,记为{NGC(x,y)},其中,NGC(x,y)表示{NGC(x,y)}中坐标位置为(x,y)的像素点的像素值。
所述的步骤⑤的具体过程为:
⑤-1、计算{SPh}中的每个区域的空间稀疏性,将{SPh}中的第h个区域的空间稀疏性记为 NSS SP h = Σ q = 1 M ( Sim ( SP h , SP q ) × D SP h ) Σ q = 1 M Sim ( SP h , SP q ) , 其中,Sim(SPh,SPq)表示{SPh}中的第h个区域与第q个区域之间的相似性,表示{SPh}中的第h个区域中的中心像素点与{Ii(x,y)}的中心像素点之间的欧氏距离;
⑤-2、对{SPh}中的每个区域的空间稀疏性进行归一化操作,得到对应的归一化后的空间稀疏性,将对{SPh}中的第h个区域的空间稀疏性进行归一化操作后得到的归一化后的空间稀疏性记为 其中,NSSmin表示{SPh}中的M个区域中最小的空间稀疏性,NSSmax表示{SPh}中的M个区域中最大的空间稀疏性;
⑤-3、计算{SPh}中的每个区域的基于空间稀疏性的显著值,将{SPh}中的第h个区域的基于空间稀疏性的显著值记为 NSS ′ ′ SP h = Σ q = 1 M ( Sim ( SP h , SP q ) × NSS ′ SP h ) Σ q = 1 M Sim ( SP h , SP q ) ;
⑤-4、将{SPh}中的每个区域的基于空间稀疏性的显著值作为对应区域中的所有像素点的显著值,从而得到{Ii(x,y)}的基于区域空间稀疏性的图像显著图,记为{NSS(x,y)},其中,NSS(x,y)表示{NSS(x,y)}中坐标位置为(x,y)的像素点的像素值。
与现有技术相比,本发明的优点在于:
1)本发明方法通过分别计算得到基于全局颜色直方图的图像显著图、基于区域颜色对比度的图像显著图和基于区域空间稀疏性的图像显著图,并最终融合得到图像显著图,所获得的图像显著图能够较好地反映图像的全局和局部区域的显著变化情况,且稳定性和准确性高。
2)本发明方法采用超像素分割技术对图像进行分割,并利用直方图特征分别计算各个区域的颜色对比度和空间稀疏性,最终利用区域之间的相似性进行加权,得到最终的基于区域的图像显著图,这样能够提取符合显著语义的特征信息。
附图说明
图1为本发明方法的总体实现框图;
图2a为“Image1”的原始图像;
图2b为“Image1”图像的真实(Ground truth)显著图;
图2c为“Image1”图像的基于全局颜色直方图的图像显著图;
图2d为“Image1”图像的基于区域颜色对比度的图像显著图;
图2e为“Image1”图像的基于区域空间稀疏性的图像显著图;
图2f为“Image1”图像最终的图像显著图;
图3a为“Image2”的原始图像;
图3b为“Image2”图像的真实(Ground truth)显著图;
图3c为“Image2”图像的基于全局颜色直方图的图像显著图;
图3d为“Image2”图像的基于区域颜色对比度的图像显著图;
图3e为“Image2”图像的基于区域空间稀疏性的图像显著图;
图3f为“Image2”图像最终的图像显著图;
图4a为“Image3”的原始图像;
图4b为“Image3”图像的真实(Ground truth)显著图;
图4c为“Image3”图像的基于全局颜色直方图的图像显著图;
图4d为“Image3”图像的基于区域颜色对比度的图像显著图;
图4e为“Image3”图像的基于区域空间稀疏性的图像显著图;
图4f为“Image3”图像最终的图像显著图;
图5a为“Image4”的原始图像;
图5b为“Image4”图像的真实(Ground truth)显著图;
图5c为“Image4”图像的基于全局颜色直方图的图像显著图;
图5d为“Image4”图像的基于区域颜色对比度的图像显著图;
图5e为“Image4”图像的基于区域空间稀疏性的图像显著图;
图5f为“Image4”图像最终的图像显著图;
图6a为“Image5”的原始图像;
图6b为“Image5”图像的真实(Ground truth)显著图;
图6c为“Image5”图像的基于全局颜色直方图的图像显著图;
图6d为“Image5”图像的基于区域颜色对比度的图像显著图;
图6e为“Image5”图像的基于区域空间稀疏性的图像显著图;
图6f为“Image5”图像最终的图像显著图。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种基于区域的图像显著图提取方法,其总体实现框图如图1所示,其包括以下步骤:
①将待处理的源图像记为{Ii(x,y)},其中,i=1,2,3,1≤x≤W,1≤y≤H,W表示{Ii(x,y)}的宽,H表示{Ii(x,y)}的高,Ii(x,y)表示{Ii(x,y)}中坐标位置为(x,y)的像素点的第i个分量的颜色值,第1个分量为R分量、第2个分量为G分量和第3个分量为B分量。
②如果只考虑局部显著性,则图像中变化较剧烈的边缘或复杂的背景区域显著性较高,而平滑的目标区域内部显著性较低,这样还需要考虑全局显著性,全局显著性是指各像素点相对于全局图像的显著程度,因此本发明首先获取{Ii(x,y)}的量化图像及量化图像的全局颜色直方图,然后根据{Ii(x,y)}的量化图像,获取{Ii(x,y)}中的每个像素点的颜色种类,再根据{Ii(x,y)}的量化图像的全局颜色直方图和{Ii(x,y)}中的每个像素点的颜色种类,获取{Ii(x,y)}的基于全局颜色直方图的图像显著图,记为{HS(x,y)},其中,HS(x,y)表示{HS(x,y)}中坐标位置为(x,y)的像素点的像素值,亦表示{Ii(x,y)}中坐标位置为(x,y)的像素点的基于全局颜色直方图的显著值。
在此具体实施例中,步骤②的具体过程为:
②-1、对{Ii(x,y)}中的每个像素点的各个分量的颜色值分别进行量化,得到{Ii(x,y)}的量化图像,记为{Pi(x,y)},将{Pi(x,y)}中坐标位置为(x,y)的像素点的第i个分量的颜色值记为Pi(x,y),其中,符号为向下取整符号。
②-2、计算{Pi(x,y)}的全局颜色直方图,记为{H(k)|0≤k≤4095},其中,H(k)表示{Pi(x,y)}中属于第k种颜色的所有像素点的个数。
②-3、根据{Pi(x,y)}中的每个像素点的各个分量的颜色值,计算{Ii(x,y)}中对应像素点的颜色种类,将{Ii(x,y)}中坐标位置为(x,y)的像素点的颜色种类记为kxy,kxy=P3(x,y)×256+P2(x,y)×16+P1(x,y),其中,P3(x,y)表示{Pi(x,y)}中坐标位置为(x,y)的像素点的第3个分量的颜色值,P2(x,y)表示{Pi(x,y)}中坐标位置为(x,y)的像素点的第2个分量的颜色值,P1(x,y)表示{Pi(x,y)}中坐标位置为(x,y)的像素点的第1个分量的颜色值。
②-4、计算{Ii(x,y)}中的每个像素点的基于全局颜色直方图的显著值,将{Ii(x,y)}中坐标位置为(x,y)的像素点的基于全局颜色直方图的显著值记为HS(x,y), HS ( x , y ) = Σ k = 0 4095 ( H ( k ) × D ( k xy , k ) ) , D ( k xy , k ) = ( p k xy , 1 - p k , 1 ) 2 + ( p k xy , 2 - p k , 2 ) 2 + ( p k xy , 3 - p k , 3 ) 2 , 其中,D(kxy,k)表示{H(k)|0≤k≤4095}中的第kxy种颜色与第k种颜色之间的欧氏距离, p k xy , 2 = mod ( k xy / 16 ) , pk,2=mod(k/16), 表示{H(k)|0≤k≤4095}中的第kxy种颜色对应的第1个分量的颜色值,表示{H(k)|0≤k≤4095}中的第kxy种颜色对应的第2个分量的颜色值,表示{H(k)|0≤k≤4095}中的第kxy种颜色对应的第3个分量的颜色值,pk,1表示{H(k)|0≤k≤4095}中的第k种颜色对应的第1个分量的颜色值,pk,2表示{H(k)|0≤k≤4095}中的第k种颜色对应的第2个分量的颜色值,pk,3表示{H(k)|0≤k≤4095}中的第k种颜色对应的第3个分量的颜色值,mod()为取余数操作函数。
②-5、根据{Ii(x,y)}中的每个像素点的基于全局颜色直方图的显著值,得到{Ii(x,y)}的基于全局颜色直方图的图像显著图,记为{HS(x,y)}。
③采用超像素(Superpixel)分割技术将{Ii(x,y)}分割成M个互不重叠的区域,然后将{Ii(x,y)}重新表示为M个区域的集合,记为{SPh},再考虑局部显著性,图像中相似的区域之间一般具有较低的显著性,因此本发明计算{SPh}中的各个区域之间的相似性,将{SPh}中的第p个区域与第q个区域之间的相似性记为Sim(SPp,SPq),其中,M≥1,SPh表示{SPh}中的第h个区域,1≤h≤M,1≤p≤M,1≤q≤M,p≠q,SPp表示{SPh}中的第p个区域,SPq表示{SPh}中的第q个区域。在本实施例中,取M=200。
在此具体实施例中,步骤③中{SPh}中的第p个区域与第q个区域之间的相似性Sim(SPp,SPq)的获取过程为:
③-1、对{SPh}中的每个区域中的每个像素点的各个分量的颜色值分别进行量化,得到{SPh}中的每个区域的量化区域,将{SPh}中的第h个区域的量化区域记为{Ph,i(xh,yh)},将{Ph,i(xh,yh)}中坐标位置为(xh,yh)的像素点的第i个分量的颜色值记为Ph,i(xh,yh),假设{Ph,i(xh,yh)}中坐标位置为(xh,yh)的像素点在{Ii(x,y)}中的坐标位置为(x,y),则其中,1≤xh≤Wh,1≤yh≤Hh,Wh表示{SPh}中的第h个区域的宽度,Hh表示{SPh}中的第h个区域的高度,符号为向下取整符号。
③-2、计算{SPh}中的每个区域的量化区域的颜色直方图,将{Ph,i(xh,yh)}的颜色直方图记为其中,表示{Ph,i(xh,yh)}中属于第k种颜色的所有像素点的个数。
③-3、对{SPh}中的每个区域的量化区域的颜色直方图进行归一化操作,得到对应的归一化后的颜色直方图,将对进行归一化操作后得到的归一化后的颜色直方图记为 { H ′ SP h ( k ) | 0 ≤ k ≤ 4095 } , H ′ SP h ( k ) = H SP h ( k ) Σ h ′ = 1 M H SP h ′ ( k ) , 其中,表示{SPh}中的第h个区域的量化区域{Ph,i(xh,yh)}中属于第k种颜色的像素点的出现概率,表示{SPh}中的第h'个区域的量化区域{Ph',i(xh',yh')}中属于第k种颜色的所有像素点的个数,1≤xh'≤Wh',1≤yh'≤Hh',Wh'表示{SPh}中的第h'个区域的宽度,Hh'表示{SPh}中的第h'个区域的高度,Ph',i(xh',yh')表示{Ph',i(xh',yh')}中坐标位置为(xh',yh')的像素点的第i个分量的颜色值。
③-4、计算{SPh}中的第p个区域与第q个区域之间的相似性,记为Sim(SPp,SPq),Sim(SPp,SPq)=Simc(SPp,SPq)×Simd(SPp,SPq),Simc(SPp,SPq)表示{SPh}中的第p个区域与{SPh}中的第q区域之间的颜色相似性, Sim c ( SP p , SP q ) = Σ k = 0 4095 min ( H ′ SP p ( k ) , H ′ SP q ( k ) ) , Simd(SPp,SPq)表示{SPh}中的第p个区域与{SPh}中的第q区域之间的空间相似性,其中,SPp表示{SPh}中的第p个区域,SPq表示{SPh}中的第q个区域,表示{SPh}中的第p个区域的量化区域{Pp,i(xp,yp)}中属于第k种颜色的像素点的出现概率,表示{SPh}中的第q个区域的量化区域{Pq,i(xq,yq)}中属于第k种颜色的像素点的出现概率,1≤xp≤Wp,1≤yp≤Hp,Wp表示{SPh}中的第p个区域的宽度,Hp表示{SPh}中的第p个区域的高度,Pp,i(xp,yp)表示{Pp,i(xp,yp)}中坐标位置为(xp,yp)的像素点的第i个分量的颜色值,1≤xq≤Wq,1≤yq≤Hq,Wq表示{SPh}中的第q个区域的宽度,Hq表示{SPh}中的第q个区域的高度,Pq,i(xq,yq)表示{Pq,i(xq,yq)}中坐标位置为(xq,yq)的像素点的第i个分量的颜色值,min()为取最小值函数,表示{SPh}中的第p个区域中的中心像素点的坐标位置,表示{SPh}中的第q个区域中的中心像素点的坐标位置,符号“‖‖”为求欧式距离符号。
④根据{SPh}中的各个区域之间的相似性,获取{Ii(x,y)}的基于区域颜色对比度的图像显著图,记为{NGC(x,y)},其中,NGC(x,y)表示{NGC(x,y)}中坐标位置为(x,y)的像素点的像素值。
在此具体实施例中,步骤④的具体过程为:
④-1、计算{SPh}中的每个区域的颜色对比度,将{SPh}中的第h个区域的颜色对比度记为 NGC SP h = Σ q = 1 M W ( SP h , SP q ) × | | m SP h - m SP q | | , 其中,SPh表示{SPh}中的第h个区域,SPq表示{SPh}中的第q个区域,表示{SPh}中的第h个区域中包含的像素点的总个数,Simd(SPh,SPq)表示{SPh}中的第h个区域与{SPh}中的第q区域之间的空间相似性, 表示{SPh}中的第h个区域中的中心像素点的坐标位置,表示{SPh}中的第q个区域中的中心像素点的坐标位置,符号“‖‖”为求欧式距离符号,表示{SPh}中的第h个区域的颜色均值向量,即将{SPh}中的第h个区域中的所有像素点的颜色向量求平均得到表示{SPh}中的第q个区域的颜色均值向量。
④-2、对{SPh}中的每个区域的颜色对比度进行归一化操作,得到对应的归一化后的颜色对比度,将对{SPh}中的第h个区域的颜色对比度进行归一化操作后得到的归一化后的颜色对比度记为 其中,NGCmin表示{SPh}中的M个区域中最小的颜色对比度,NGCmax表示{SPh}中的M个区域中最大的颜色对比度。
④-3、计算{SPh}中的每个区域的基于颜色对比度的显著值,将{SPh}中的第h个区域的基于颜色对比度的显著值记为 NGC ′ ′ SP h = Σ q = 1 M ( Sim ( SP h , SP q ) × NGC ′ SP h ) Σ q = 1 M Sim ( SP h , SP q ) , 其中,Sim(SPh,SPq)表示{SPh}中的第h个区域与第q个区域之间的相似性。
④-4、将{SPh}中的每个区域的基于颜色对比度的显著值作为对应区域中的所有像素点的显著值,即对于{SPh}中的第h个区域,将{SPh}中的第h个区域的基于颜色对比度的显著值作为该区域中的所有像素点的显著值,从而得到{Ii(x,y)}的基于区域颜色对比度的图像显著图,记为{NGC(x,y)},其中,NGC(x,y)表示{NGC(x,y)}中坐标位置为(x,y)的像素点的像素值。
⑤根据{SPh}中的各个区域之间的相似性,获取{Ii(x,y)}的基于区域空间稀疏性的图像显著图,记为{NSS(x,y)},其中,NSS(x,y)表示{NSS(x,y)}中坐标位置为(x,y)的像素点的像素值。
在此具体实施例中,步骤⑤的具体过程为:
⑤-1、计算{SPh}中的每个区域的空间稀疏性,将{SPh}中的第h个区域的空间稀疏性记为 NSS SP h = Σ q = 1 M ( Sim ( SP h , SP q ) × D SP h ) Σ q = 1 M Sim ( SP h , SP q ) , 其中,Sim(SPh,SPq)表示{SPh}中的第h个区域与第q个区域之间的相似性,表示{SPh}中的第h个区域中的中心像素点与{Ii(x,y)}的中心像素点之间的欧氏距离。
⑤-2、对{SPh}中的每个区域的空间稀疏性进行归一化操作,得到对应的归一化后的空间稀疏性,将对{SPh}中的第h个区域的空间稀疏性进行归一化操作后得到的归一化后的空间稀疏性记为 其中,NSSmin表示{SPh}中的M个区域中最小的空间稀疏性,NSSmax表示{SPh}中的M个区域中最大的空间稀疏性。
⑤-3、计算{SPh}中的每个区域的基于空间稀疏性的显著值,将{SPh}中的第h个区域的基于空间稀疏性的显著值记为 NS S ′ ′ SP h = Σ q = 1 M ( Sim ( SP h , SP q ) × NSS ′ SP h ) Σ q = 1 M Sim ( SP h , SP q ) .
⑤-4、将{SPh}中的每个区域的基于空间稀疏性的显著值作为对应区域中的所有像素点的显著值,即对于{SPh}中的第h个区域,将{SPh}中的第h个区域的基于空间稀疏性的显著值作为该区域中的所有像素点的显著值,从而得到{Ii(x,y)}的基于区域空间稀疏性的图像显著图,记为{NSS(x,y)},其中,NSS(x,y)表示{NSS(x,y)}中坐标位置为(x,y)的像素点的像素值。
⑥对{Ii(x,y)}的基于全局颜色直方图的图像显著图{HS(x,y)}、{Ii(x,y)}的基于区域颜色对比度的图像显著图{NGC(x,y)}及{Ii(x,y)}的基于区域空间稀疏性的图像显著图{NSS(x,y)}进行融合,得到{Ii(x,y)}的最终的图像显著图,记为{Sal(x,y)},将{Sal(x,y)}中坐标位置为(x,y)的像素点的像素值记为Sal(x,y),Sal(x,y)=HS(x,y)×NGC(x,y)×NSS(x,y)。
以下就利用本发明方法对微软亚洲研究院提供的显著对象图像库MSRA中Image1、Image2、Image3、Image4和Image5五组图像的显著图进行提取。图2a给出了“Image1”的原始图像,图2b给出了“Image1”图像的真实(Ground truth)显著图,图2c给出了“Image1”图像的基于全局颜色直方图的图像显著图、图2d给出了“Image1”图像的基于区域颜色对比度的图像显著图、图2e给出了“Image1”图像的基于区域空间稀疏性的图像显著图、图2f给出了“Image1”图像最终的图像显著图;图3a给出了“Image2”的原始图像,图3b给出了“Image2”图像的真实(Ground truth)显著图,图3c给出了“Image2”图像的基于全局颜色直方图的图像显著图、图3d给出了“Image2”图像的基于区域颜色对比度的图像显著图、图3e给出了“Image2”图像的基于区域空间稀疏性的图像显著图、图3f给出了“Image2”图像最终的图像显著图;图4a给出了“Image3”的原始图像,图4b给出了“Image3”图像的真实(Groundtruth)显著图,图4c给出了“Image3”图像的基于全局颜色直方图的图像显著图、图4d给出了“Image3”图像的基于区域颜色对比度的图像显著图、图4e给出了“Image3”图像的基于区域空间稀疏性的图像显著图、图4f给出了“Image3”图像最终的图像显著图;图5a给出了“Image4”的原始图像,图5b给出了“Image4”图像的真实(Ground truth)显著图,图5c给出了“Image4”图像的基于全局颜色直方图的图像显著图、图5d给出了“Image4”图像的基于区域颜色对比度的图像显著图、图5e给出了“Image4”图像的基于区域空间稀疏性的图像显著图、图5f给出了“Image4”图像最终的图像显著图;图6a给出了“Image5”的原始图像,图6b给出了“Image5”图像的真实(Ground truth)显著图,图6c给出了“Image5”图像的基于全局颜色直方图的图像显著图、图6d给出了“Image5”图像的基于区域颜色对比度的图像显著图、图6e给出了“Image5”图像的基于区域空间稀疏性的图像显著图、图6f给出了“Image5”图像最终的图像显著图。从图2a至图6f可以看出,采用本发明方法得到的图像显著图由于考虑了全局和局部区域的显著变化情况,因此能够很好地符合显著语义的特征。

Claims (4)

1.一种基于区域的图像显著图提取方法,其特征在于包括以下步骤:
①将待处理的源图像记为{Ii(x,y)},其中,i=1,2,3,1≤x≤W,1≤y≤H,W表示{Ii(x,y)}的宽,H表示{Ii(x,y)}的高,Ii(x,y)表示{Ii(x,y)}中坐标位置为(x,y)的像素点的第i个分量的颜色值,第1个分量为R分量、第2个分量为G分量和第3个分量为B分量;
②首先获取{Ii(x,y)}的量化图像及量化图像的全局颜色直方图,然后根据{Ii(x,y)}的量化图像,获取{Ii(x,y)}中的每个像素点的颜色种类,再根据{Ii(x,y)}的量化图像的全局颜色直方图和{Ii(x,y)}中的每个像素点的颜色种类,获取{Ii(x,y)}的基于全局颜色直方图的图像显著图,记为{HS(x,y)},其中,HS(x,y)表示{HS(x,y)}中坐标位置为(x,y)的像素点的像素值,亦表示{Ii(x,y)}中坐标位置为(x,y)的像素点的基于全局颜色直方图的显著值;
所述的步骤②的具体过程为:
②-1、对{Ii(x,y)}中的每个像素点的各个分量的颜色值分别进行量化,得到{Ii(x,y)}的量化图像,记为{Pi(x,y)},将{Pi(x,y)}中坐标位置为(x,y)的像素点的第i个分量的颜色值记为Pi(x,y),其中,符号为向下取整符号;
②-2、计算{Pi(x,y)}的全局颜色直方图,记为{H(k)|0≤k≤4095},其中,H(k)表示{Pi(x,y)}中属于第k种颜色的所有像素点的个数;
②-3、根据{Pi(x,y)}中的每个像素点的各个分量的颜色值,计算{Ii(x,y)}中对应像素点的颜色种类,将{Ii(x,y)}中坐标位置为(x,y)的像素点的颜色种类记为kxy,kxy=P3(x,y)×256+P2(x,y)×16+P1(x,y),其中,P3(x,y)表示{Pi(x,y)}中坐标位置为(x,y)的像素点的第3个分量的颜色值,P2(x,y)表示{Pi(x,y)}中坐标位置为(x,y)的像素点的第2个分量的颜色值,P1(x,y)表示{Pi(x,y)}中坐标位置为(x,y)的像素点的第1个分量的颜色值;
②-4、计算{Ii(x,y)}中的每个像素点的基于全局颜色直方图的显著值,将{Ii(x,y)}中坐标位置为(x,y)的像素点的基于全局颜色直方图的显著值记为HS(x,y), 其中,D(kxy,k)表示{H(k)|0≤k≤4095}中的第kxy种颜色与第k种颜色之间的欧氏距离, pk,2=mod(k/16), 表示{H(k)|0≤k≤4095}中的第kxy种颜色对应的第1个分量的颜色值,表示{H(k)|0≤k≤4095}中的第kxy种颜色对应的第2个分量的颜色值,表示{H(k)|0≤k≤4095}中的第kxy种颜色对应的第3个分量的颜色值,pk,1表示{H(k)|0≤k≤4095}中的第k种颜色对应的第1个分量的颜色值,pk,2表示{H(k)|0≤k≤4095}中的第k种颜色对应的第2个分量的颜色值,pk,3表示{H(k)|0≤k≤4095}中的第k种颜色对应的第3个分量的颜色值,mod()为取余数操作函数;
②-5、根据{Ii(x,y)}中的每个像素点的基于全局颜色直方图的显著值,得到{Ii(x,y)}的基于全局颜色直方图的图像显著图,记为{HS(x,y)};
③采用超像素分割技术将{Ii(x,y)}分割成M个互不重叠的区域,然后将{Ii(x,y)}重新表示为M个区域的集合,记为{SPh},再计算{SPh}中的各个区域之间的相似性,将{SPh}中的第p个区域与第q个区域之间的相似性记为Sim(SPp,SPq),其中,M≥1,SPh表示{SPh}中的第h个区域,1≤h≤M,1≤p≤M,1≤q≤M,p≠q,SPp表示{SPh}中的第p个区域,SPq表示{SPh}中的第q个区域;
④根据{SPh}中的各个区域之间的相似性,获取{Ii(x,y)}的基于区域颜色对比度的图像显著图,记为{NGC(x,y)},其中,NGC(x,y)表示{NGC(x,y)}中坐标位置为(x,y)的像素点的像素值;
⑤根据{SPh}中的各个区域之间的相似性,获取{Ii(x,y)}的基于区域空间稀疏性的图像显著图,记为{NSS(x,y)},其中,NSS(x,y)表示{NSS(x,y)}中坐标位置为(x,y)的像素点的像素值;
⑥对{Ii(x,y)}的基于全局颜色直方图的图像显著图{HS(x,y)}、{Ii(x,y)}的基于区域颜色对比度的图像显著图{NGC(x,y)}及{Ii(x,y)}的基于区域空间稀疏性的图像显著图{NSS(x,y)}进行融合,得到{Ii(x,y)}的最终的图像显著图,记为{Sal(x,y)},将{Sal(x,y)}中坐标位置为(x,y)的像素点的像素值记为Sal(x,y),Sal(x,y)=HS(x,y)×NGC(x,y)×NSS(x,y)。
2.根据权利要求1所述的一种基于区域的图像显著图提取方法,其特征在于所述的步骤③中{SPh}中的第p个区域与第q个区域之间的相似性Sim(SPp,SPq)的获取过程为:
③-1、对{SPh}中的每个区域中的每个像素点的各个分量的颜色值分别进行量化,得到{SPh}中的每个区域的量化区域,将{SPh}中的第h个区域的量化区域记为{Ph,i(xh,yh)},将{Ph,i(xh,yh)}中坐标位置为(xh,yh)的像素点的第i个分量的颜色值记为Ph,i(xh,yh),假设{Ph,i(xh,yh)}中坐标位置为(xh,yh)的像素点在{Ii(x,y)}中的坐标位置为(x,y),则其中,1≤xh≤Wh,1≤yh≤Hh,Wh表示{SPh}中的第h个区域的宽度,Hh表示{SPh}中的第h个区域的高度,符号为向下取整符号;
③-2、计算{SPh}中的每个区域的量化区域的颜色直方图,将{Ph,i(xh,yh)}的颜色直方图记为其中,表示{Ph,i(xh,yh)}中属于第k种颜色的所有像素点的个数;
③-3、对{SPh}中的每个区域的量化区域的颜色直方图进行归一化操作,得到对应的归一化后的颜色直方图,将对进行归一化操作后得到的归一化后的颜色直方图记为 其中,表示{SPh}中的第h个区域的量化区域{Ph,i(xh,yh)}中属于第k种颜色的像素点的出现概率,表示{SPh}中的第h'个区域的量化区域{Ph',i(xh',yh')}中属于第k种颜色的所有像素点的个数,1≤xh'≤Wh',1≤yh'≤Hh',Wh'表示{SPh}中的第h'个区域的宽度,Hh'表示{SPh}中的第h'个区域的高度,Ph',i(xh',yh')表示{Ph',i(xh',yh')}中坐标位置为(xh',yh')的像素点的第i个分量的颜色值;
③-4、计算{SPh}中的第p个区域与第q个区域之间的相似性,记为Sim(SPp,SPq),Sim(SPp,SPq)=Simc(SPp,SPq)×Simd(SPp,SPq),Simc(SPp,SPq)表示{SPh}中的第p个区域与{SPh}中的第q区域之间的颜色相似性,Simd(SPp,SPq)表示{SPh}中的第p个区域与{SPh}中的第q区域之间的空间相似性,其中,SPp表示{SPh}中的第p个区域,SPq表示{SPh}中的第q个区域,表示{SPh}中的第p个区域的量化区域{Pp,i(xp,yp)}中属于第k种颜色的像素点的出现概率,表示{SPh}中的第q个区域的量化区域{Pq,i(xq,yq)}中属于第k种颜色的像素点的出现概率,1≤xp≤Wp,1≤yp≤Hp,Wp表示{SPh}中的第p个区域的宽度,Hp表示{SPh}中的第p个区域的高度,Pp,i(xp,yp)表示{Pp,i(xp,yp)}中坐标位置为(xp,yp)的像素点的第i个分量的颜色值,1≤xq≤Wq,1≤yq≤Hq,Wq表示{SPh}中的第q个区域的宽度,Hq表示{SPh}中的第q个区域的高度,Pq,i(xq,yq)表示{Pq,i(xq,yq)}中坐标位置为(xq,yq)的像素点的第i个分量的颜色值,min()为取最小值函数,表示{SPh}中的第p个区域中的中心像素点的坐标位置,表示{SPh}中的第q个区域中的中心像素点的坐标位置,符号“|| ||”为求欧式距离符号。
3.根据权利要求2所述的一种基于区域的图像显著图提取方法,其特征在于所述的步骤④的具体过程为:
④-1、计算{SPh}中的每个区域的颜色对比度,将{SPh}中的第h个区域的颜色对比度记为 其中,SPh表示{SPh}中的第h个区域,SPq表示{SPh}中的第q个区域,表示{SPh}中的第h个区域中包含的像素点的总个数,Simd(SPh,SPq)表示{SPh}中的第h个区域与{SPh}中的第q区域之间的空间相似性, 表示{SPh}中的第h个区域中的中心像素点的坐标位置,表示{SPh}中的第q个区域中的中心像素点的坐标位置,符号“||||”为求欧式距离符号,表示{SPh}中的第h个区域的颜色均值向量,表示{SPh}中的第q个区域的颜色均值向量;
④-2、对{SPh}中的每个区域的颜色对比度进行归一化操作,得到对应的归一化后的颜色对比度,将对{SPh}中的第h个区域的颜色对比度进行归一化操作后得到的归一化后的颜色对比度记为 其中,NGCmin表示{SPh}中的M个区域中最小的颜色对比度,NGCmax表示{SPh}中的M个区域中最大的颜色对比度;
④-3、计算{SPh}中的每个区域的基于颜色对比度的显著值,将{SPh}中的第h个区域的基于颜色对比度的显著值记为 其中,Sim(SPh,SPq)表示{SPh}中的第h个区域与第q个区域之间的相似性;
④-4、将{SPh}中的每个区域的基于颜色对比度的显著值作为对应区域中的所有像素点的显著值,从而得到{Ii(x,y)}的基于区域颜色对比度的图像显著图,记为{NGC(x,y)},其中,NGC(x,y)表示{NGC(x,y)}中坐标位置为(x,y)的像素点的像素值。
4.根据权利要求3所述的一种基于区域的图像显著图提取方法,其特征在于所述的步骤⑤的具体过程为:
⑤-1、计算{SPh}中的每个区域的空间稀疏性,将{SPh}中的第h个区域的空间稀疏性记为 其中,Sim(SPh,SPq)表示{SPh}中的第h个区域与第q个区域之间的相似性,表示{SPh}中的第h个区域中的中心像素点与{Ii(x,y)}的中心像素点之间的欧氏距离;
⑤-2、对{SPh}中的每个区域的空间稀疏性进行归一化操作,得到对应的归一化后的空间稀疏性,将对{SPh}中的第h个区域的空间稀疏性进行归一化操作后得到的归一化后的空间稀疏性记为 其中,NSSmin表示{SPh}中的M个区域中最小的空间稀疏性,NSSmax表示{SPh}中的M个区域中最大的空间稀疏性;
⑤-3、计算{SPh}中的每个区域的基于空间稀疏性的显著值,将{SPh}中的第h个区域的基于空间稀疏性的显著值记为
⑤-4、将{SPh}中的每个区域的基于空间稀疏性的显著值作为对应区域中的所有像素点的显著值,从而得到{Ii(x,y)}的基于区域空间稀疏性的图像显著图,记为{NSS(x,y)},其中,NSS(x,y)表示{NSS(x,y)}中坐标位置为(x,y)的像素点的像素值。
CN201310651864.5A 2013-12-05 2013-12-05 一种基于区域的图像显著图提取方法 Active CN103632153B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310651864.5A CN103632153B (zh) 2013-12-05 2013-12-05 一种基于区域的图像显著图提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310651864.5A CN103632153B (zh) 2013-12-05 2013-12-05 一种基于区域的图像显著图提取方法

Publications (2)

Publication Number Publication Date
CN103632153A CN103632153A (zh) 2014-03-12
CN103632153B true CN103632153B (zh) 2017-01-11

Family

ID=50213181

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310651864.5A Active CN103632153B (zh) 2013-12-05 2013-12-05 一种基于区域的图像显著图提取方法

Country Status (1)

Country Link
CN (1) CN103632153B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104050674B (zh) * 2014-06-27 2017-01-25 中国科学院自动化研究所 一种显著性区域检测方法及装置
CN104133956B (zh) * 2014-07-25 2017-09-12 小米科技有限责任公司 处理图片的方法及装置
CN104134217B (zh) * 2014-07-29 2017-02-15 中国科学院自动化研究所 一种基于超体素图割的视频显著物体分割方法
CN104392233B (zh) * 2014-11-21 2017-06-06 宁波大学 一种基于区域的图像显著图提取方法
CN106611427B (zh) * 2015-10-21 2019-11-15 中国人民解放军理工大学 基于候选区域融合的视频显著性检测方法
CN105512663A (zh) * 2015-12-02 2016-04-20 南京邮电大学 一种基于全局与局部对比度的显著性检测方法
CN106611178A (zh) * 2016-03-10 2017-05-03 四川用联信息技术有限公司 一种显著目标识别方法
CN106709512B (zh) * 2016-12-09 2020-03-17 河海大学 基于局部稀疏表示和对比度的红外目标检测方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102867313A (zh) * 2012-08-29 2013-01-09 杭州电子科技大学 一种融合区域颜色和HoG特征的视觉显著性检测方法
CN103218832A (zh) * 2012-10-15 2013-07-24 上海大学 基于图像中全局颜色对比度和空域分布的视觉显著性算法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102867313A (zh) * 2012-08-29 2013-01-09 杭州电子科技大学 一种融合区域颜色和HoG特征的视觉显著性检测方法
CN103218832A (zh) * 2012-10-15 2013-07-24 上海大学 基于图像中全局颜色对比度和空域分布的视觉显著性算法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Context-Aware Saliency Detection;Stas Goferman等;《IEEE Transactions on Pattern Analysis and Machine Intelligence archive》;20121031;第34卷(第10期);第1915-1926页 *
基于感知重要性的立体图像质量评价方法;段芬芳 等;《光电工程》;20131031;第40卷(第10期);第70-76页 *

Also Published As

Publication number Publication date
CN103632153A (zh) 2014-03-12

Similar Documents

Publication Publication Date Title
CN103632153B (zh) 一种基于区域的图像显著图提取方法
US10803554B2 (en) Image processing method and device
WO2018023734A1 (zh) 一种3d图像的显著性检测方法
CN107292318B (zh) 基于中心暗通道先验信息的图像显著性物体检测方法
CN103020992B (zh) 一种基于运动颜色关联的视频图像显著性检测方法
CN104392233B (zh) 一种基于区域的图像显著图提取方法
CN110796143A (zh) 一种基于人机协同的场景文本识别方法
CN108564120B (zh) 基于深度神经网络的特征点提取方法
CN103955718A (zh) 一种图像主体对象的识别方法
CN103440646A (zh) 用于颜色分布和纹理分布图像检索的相似度获取方法
CN110827312B (zh) 一种基于协同视觉注意力神经网络的学习方法
CN103745104A (zh) 一种基于增强现实技术的评卷方法
CN113822352B (zh) 基于多特征融合的红外弱小目标检测方法
Shang et al. Robust unstructured road detection: the importance of contextual information
CN102147867A (zh) 一种基于主体的国画图像和书法图像的识别方法
CN104299241A (zh) 基于 Hadoop 的遥感图像显著性目标检测方法及***
CN104050674B (zh) 一种显著性区域检测方法及装置
CN116883588A (zh) 一种大场景下的三维点云快速稠密重建方法及***
CN103632372A (zh) 一种视频显著图提取方法
CN105023264A (zh) 一种结合对象性和背景性的红外图像显著特征检测方法
CN111325184A (zh) 一种遥感影像智能解译与变化信息检测方法
CN113628180B (zh) 一种基于语义分割网络的遥感建筑物检测方法及***
CN109583341B (zh) 对包含人像的图像的多人骨骼关键点检测方法及装置
CN107221007A (zh) 一种基于图像特征降维的无人车单目视觉定位方法
CN113902753A (zh) 基于双通道和自注意力机制的图像语义分割方法及***

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20191219

Address after: Room 1,020, Nanxun Science and Technology Pioneering Park, No. 666 Chaoyang Road, Nanxun District, Huzhou City, Zhejiang Province, 313000

Patentee after: Huzhou You Yan Intellectual Property Service Co., Ltd.

Address before: 315211 Zhejiang Province, Ningbo Jiangbei District Fenghua Road No. 818

Patentee before: Ningbo University

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20200702

Address after: 313000 Room 121,221, Building 3, 1366 Hongfeng Road, Wuxing District, Huzhou City, Zhejiang Province

Patentee after: ZHEJIANG DUYAN INFORMATION TECHNOLOGY Co.,Ltd.

Address before: Room 1,020, Nanxun Science and Technology Pioneering Park, No. 666 Chaoyang Road, Nanxun District, Huzhou City, Zhejiang Province, 313000

Patentee before: Huzhou You Yan Intellectual Property Service Co.,Ltd.