CN106780476A - 一种基于人眼立体视觉特性的立体图像显著性检测方法 - Google Patents
一种基于人眼立体视觉特性的立体图像显著性检测方法 Download PDFInfo
- Publication number
- CN106780476A CN106780476A CN201611244693.4A CN201611244693A CN106780476A CN 106780476 A CN106780476 A CN 106780476A CN 201611244693 A CN201611244693 A CN 201611244693A CN 106780476 A CN106780476 A CN 106780476A
- Authority
- CN
- China
- Prior art keywords
- prime
- notable
- region
- picture
- stereo
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明具体涉及一种基于人眼立体视觉特性的立体图像显著性检测方法,本发明包括立体图像的空间以及深度两个不同维度的视图信息进行显著性计算,首先,先采用SLIC算法对单视点视图进行超像素分割,并进行区域相似性进行合并,然后,再采用GBVS算法计算二维空间显著图;接着,结合视差图中的绝对视差特征,局部视差特征和深度对比度特征进行深度显著性计算;最后,结合人眼视觉疲劳特性,对视差分布进行了合理的处理,将两种不同维度的显著图采用线性加权方式进行显著性聚合,生成立体图像显著图。本发明能够在不同的场景下有效的检测出立体图像的显著区域,适用于可疑物计算、图像检索等领域。
Description
技术领域
本发明属于图像处理技术领域,具体涉及一种基于人眼双目立体视觉的立体图像显著性检测的方法。
背景技术
显著性检测技术是立体视频处理技术的一个重要组成部分,也是许多不同的应用程序在图像处理的基础,尤其在目标检测和识别,图像压缩,视觉导航和图像质量评估等重要应用例如,可以通过显着性检测技术获取立体视频的视觉显著区域,进一步对视觉显著区域的视频图像质量进行完善提高,而减少非显著区域(即对人眼视觉***影响较小的区域)的处理时间。
目前大部分的显著性计算模型都是仅仅以图像的颜色、亮度、形状以及纹理等空间二维信息作为输入,然后基于像素点利用降采样或者多尺度变换的方式进行显著性计算,然而,这些计算模型在大多数情况下都没有考虑物体的距离信息,不适用于立体图像的显著性检测。通过上一章的研究分析,我们知道立体图像中的深度信息是人眼视觉***(HSV)的重要感知特征之一,它能够反映物体距离观察者的远近。根据现有的研究分析:距离较近或深度改变较剧烈的场景物体容易引起我们双眼的注意,即表现出更强的视觉显著性。
鉴于上述现状,需要对传统的显著性模型检测进行改进,采取简单有效的方法对立体图像的二维空间以及深度两个不同维度的视图信息进行显著性计算,并且准确的检测出立体图像的显著区域。
发明内容
本发明的目的就是提出了一种基于双目立体视觉的立体图像显著性检测方法,包括如下步骤:
步骤一:显著特征提取:从立体图像的二维、深度两个不同维度的视图信息进行显著性计算,分别提取二维显著区域和深度显著区域;
其中提取二维显著区域具体包括以下步骤:
首先采用SLIC算法对立体视图的左视图进行预处理,通过区域分割获取超像素区域并进行区域相似性合并,然后,再采用GBVS模型进行二维显著性计算,具体步骤为:
a)采用SLIC算法对输入左视图进行超像素分割获取分割区域,具体公式如下:
其中,(li,ai,bi)和(lj,aj,bj)分别表示(xi,yi)和(xj,yj)两点在LAB颜色空间对应的三个分量,dc表示两点在LAB颜色空间的距离,ds表示两点在二维平面内的距离,m为表示迭代次数,默认值取10,S为类间最大空间距离,Ds为所求的距离度量。
将超像素分割后的立体图像左视图进行区域相似性合并。经过SLIC算法分割后,图像中的每个分割区域都拥有自己的种子点,基于计算相邻种子点的颜色特征相似性进行区域合并,将超像素图中的n个区域进行合并,得到标签图Lr(x,y):
其中,1≤i≤n,Lr(x,y)为标签图。
b)对区域相似性合并后的标签图采用GBVS算法对区域合并后的图像进行二维空间显著计算,该模型主要包括两步:
1.二维图像特征的提取:采用线性滤波以及非线性滤波提取图像的亮度颜色以及方向的低阶视觉特征;得到特征图M;
2.二维显著图的生成:
首先给定输入图像的一张特征图:M:[n]2→R,然后定义两个特征点之间的距离公式为:
式中M(i,j)和M(p,q)分别代表节点(i,j)、(p,q)两点的相应特征值。将特征图M中的每一个像素点进行两两相连构建图GA,然后计算出(i,j)和(p,q)这两个节点的有向边的相应权重大小:
式中σ为一个自定义参数,默认取值为图像宽度大小的0.1到0.15倍左右,反向边具有同样大小的权重值。首先将每个节点的有向边权重大小都归一化到0到1区间,然后在图GA上定义一条马尔科夫链,通过马尔科夫链的均衡分布反映出每个特征节点之间的差异大小,即对应的显著值,进而得到二维显著图Simg:[n]2→R。
其中深度显著性计算,具体步骤为:
a)采用DERS软件根据输入的左视点图和右视点图计算出相应的原始视差图D;
b)对原始视差图D进行预处理,即首先计算原始视差图D中每行局部视差改变量,初步分离背景与物体:
其中,p表示视差图中的该点像素,dp′和dp分别表示预处理后p点像素的视差值和原始图中p点像素值,表示该行像素点的平均像素值,其中包括dp;得到图像D′;
采用区域对比度算法用于进一步的目标背景的显著性计算,该算法主要包括两大部分:(1)先将图像D′进行图像区域分割,(2)然后计算D′中的每个区域Ri与周围其他区域的视差对比度并进行显著性赋值:
其中,S(Ri)代表区域Ri的显著值,ni表示区域Ri的像素点个数,nk表示区域Rk的像素点个数,dR′(Ri,Rk)表示Ri和Rk两个区域之间的视差对比度大小:
其中,d′(p,q)表示p和q两点之间的视差差值,定义为|dp′-dq′|,ω(p,q)表示权重用来计算p和q两点之间的空间距离,其中σ'2为一个控制参数默认值取0.4,最后将计算后的图像归一化到[0,1]区间,基于屏幕前凸显的物体更为显著值进行显著性映射赋值:
其中,SR′(x,y)代表(x,y)像素点位置的映射显著值,Smax和Smin分别代表SR(x,y)中的最大显著值以及最小显著值;得到视差显著图S′R;
c)利用高斯差分滤波器提取重要的深度感知特征—深度对比度,实现公式下:
其中(x,y)代表滤波器位置,σ”和K分别用来控制滤波器的尺度和高斯核的半径比;取σ”=32,K=1.6;得到深度对比度图SE;
d)再将获取的视差显著图S′R和深度对比度图SE采用线性加权的融合的方式获取深度显著图Sdep:
Sdep=wrS′R+weSE
其中,wr和we分别为视差显著图S′R和深度对比度图SE的权重,这里
wr=we=0.5。
步骤二:显著特征融合
将提取的两种不同维度的显著特征图结合人眼视觉疲劳特性,采取线性加权的融合策略进行融合,进而获取立体图像的显著区域。
具体步骤如下:
SSM(x,y)=λ(γSimg(x,y)+(1-γ)Sdep(x,y))
其中,SSM(x,y),Simg(x,y)和Sdep(x,y)分别表示立体图像显著图,二维空间显著图和深度显著图,γ表示权重默认初始值设为0.5,λ参数表示像素点的视觉舒适特征:
其中,Tneg和Tpos表示视差舒适区域的区域门限值,具体大小值通过实验统计手动设置。
技术效果:对以上技术、步骤简单分析,得出可以实现对立体图像的显著区域检测,本发明提出一种基于双目立体视觉的立体图像显著性检测方法,能解决当前传统检测模型存在复杂场景检测效果不佳等问题。有效地提高了立体图像显著性检测的准确性,而且本发明提出的算法复杂度比较低,符合人眼的视觉感知特性,具有一定的实用价值。
附图说明
图1是本发明基于双目立体视觉的立体图像显著性检测方法的流程图。
图2是立体图像左视图。
图3是立体图像右视图。
图4是立体图像左视图的超像素分割图。
图5是立体图像左视图超像分割区域合并图。
图6是立体图像左视图的二维空间显著图。
图7是立体图像左视图和右视图的视差图。
图8是立体图像视差图的视差预处理图。
图9是立体图像视差图的局部视差显著图。
图10是立体图像视差图的视差显著图。
图11是立体图像视差图的深度对比度图。
图12是立体图像的深度显著图。
图13是立体图像的显著区域检测图。
图14(1-10)是不同的立体图像的检测结果图。
具体实施方式
结合以下具体实施例和附图,对本发明进一步的详细说明。
本发明的目的就是提出了一种基于双目立体视觉的立体图像显著性检测方法,包括如下步骤:
步骤一:显著特征提取:从立体图像的二维、深度两个不同维度的视图信息进行显著性计算,分别提取二维显著区域和深度显著区域;
其中提取二维显著区域具体包括以下步骤:
首先采用SLIC算法对立体视图的左视图进行预处理,通过区域分割获取超像素区域并进行区域相似性合并,然后,再采用GBVS模型进行二维显著性计算,具体步骤为:
c)采用SLIC算法对输入左视图进行超像素分割获取分割区域,具体公式如下:
其中,(li,ai,bi)和(lj,aj,bj)分别表示(xi,yi)和(xj,yj)两点在LAB颜色空间对应的三个分量,dc表示两点在LAB颜色空间的距离,ds表示两点在二维平面内的距离,m为表示迭代次数,默认值取10,S为类间最大空间距离,Ds为所求的距离度量,如图4所示。
将超像素分割后的立体图像左视图进行区域相似性合并。经过SLIC算法分割后,图像中的每个分割区域都拥有自己的种子点,基于计算相邻种子点的颜色特征相似性进行区域合并,将超像素图中的n个区域进行合并,得到标签图Lr(x,y):
其中,1≤i≤n,Lr(x,y)为标签图,如图5所示。
d)对区域相似性合并后的标签图采用GBVS算法对区域合并后的图像进行二维空间显著计算,该模型主要包括两步:
1.二维图像特征的提取:采用线性滤波以及非线性滤波提取图像的亮度颜色以及方向的低阶视觉特征;得到特征图M;
2.二维显著图的生成:
首先给定输入图像的一张特征图:M:[n]2→R,然后定义两个特征点之间的距离公式为:
式中M(i,j)和M(p,q)分别代表节点(i,j)、(p,q)两点的相应特征值。将特征图M中的每一个像素点进行两两相连构建图GA,然后计算出(i,j)和(p,q)这两个节点的有向边的相应权重大小:
式中σ为一个自定义参数,默认取值为图像宽度大小的0.1到0.15倍左右,反向边具有同样大小的权重值。首先将每个节点的有向边权重大小都归一化到0到1区间,然后在图GA上定义一条马尔科夫链,通过马尔科夫链的均衡分布反映出每个特征节点之间的差异大小,即对应的显著值,进而得到二维显著图Simg:[n]2→R,如图6所示。
其中深度显著性计算,具体步骤为:
a)采用DERS软件根据输入的左视点图和右视点图计算出相应的原始视差图D,如7所示;
b)对原始视差图D进行预处理,即首先计算原始视差图D中每行局部视差改变量,初步分离背景与物体:
其中,p表示视差图中的该点像素,dp′和dp分别表示预处理后p点像素的视差值和原始图中p点像素值,表示该行像素点的平均像素值,其中包括dp;得到图像D′,如图8所示;
采用区域对比度算法用于进一步的目标背景的显著性计算,该算法主要包括两大部分:(1)先将图像D′进行图像区域分割,(2)然后计算D′中的每个区域Ri与周围其他区域的视差对比度并进行显著性赋值:
其中,S(Ri)代表区域Ri的显著值,ni表示区域Ri的像素点个数,nk表示区域Rk的像素点个数,dR′(Ri,Rk)表示Ri和Rk两个区域之间的视差对比度大小:
其中,d′(p,q)表示p和q两点之间的视差差值,定义为|dp′-dq′|,ω(p,q)表示权重用来计算p和q两点之间的空间距离,其中σ'2为一个控制参数默认值取0.4,如图9所示。最后将计算后的图像归一化到[0,1]区间,基于屏幕前凸显的物体更为显著值进行显著性映射赋值:
其中,SR′(x,y)代表(x,y)像素点位置的映射显著值,Smax和Smin分别代表SR(x,y)中的最大显著值以及最小显著值;得到视差显著图S′R,如图10所示;
c)利用高斯差分滤波器提取重要的深度感知特征—深度对比度,实现公式下:
其中(x,y)代表滤波器位置,σ”和K分别用来控制滤波器的尺度和高斯核的半径比;取σ”=32,K=1.6;得到深度对比度图SE,如图11所示;
d)再将获取的视差显著图S′R和深度对比度图SE采用线性加权的融合的方式获取深度显著图Sdep:
Sdep=wrS′R+weSE
其中,wr和we分别为视差显著图S′R和深度对比度图SE的权重,这里wr=we=0.5,如图12所示。
步骤二:显著特征融合
将提取的两种不同维度的显著特征图结合人眼视觉疲劳特性,采取线性加权的融合策略进行融合,进而获取立体图像的显著区域。
具体步骤如下:
SSM(x,y)=λ(γSimg(x,y)+(1-γ)Sdep(x,y))
其中,SSM(x,y),Simg(x,y)和Sdep(x,y)分别表示立体图像显著图,二维空间显著图和深度显著图,γ表示权重默认初始值设为0.5,λ参数表示像素点(x,y)的视觉舒适特征:
其中,Tneg和Tpos表示视差舒适区域的区域门限值,具体大小值通过实验统计手动设置,融合结果如图13所示。
由于考虑到不同场景下本发明的检测结果,还选取5组不同场景下的立体图像进行实验使用本发明的立体视频显著性检测方法进行检测,检测的结果如图14(1-10)所示。从实验结果验证了本发明能够有效的检测出立体图像的显著区域。
本发明的保护内容不局限于以上实例。在不背离发明构思的精神和范围下,本领域技术人员能够想到的变化和优点都被包括在本发明中,并且以所附的权利要求书为保护范围。
Claims (1)
1.一种基于人眼立体视觉特性的立体图像显著性检测方法,其特征在于,该方法具体包括以下步骤:
步骤一:显著特征提取:从立体图像的二维、深度两个不同维度的视图信息进行显著性计算,分别提取二维显著区域和深度显著区域;
其中提取二维显著区域具体包括以下步骤:
首先采用SLIC算法对立体视图的左视图进行预处理,通过区域分割获取超像素区域并进行区域相似性合并,然后,再采用GBVS模型进行二维显著性计算,具体步骤为:
a)采用SLIC算法对输入左视图进行超像素分割获取分割区域,具体公式如下:
其中,(li,ai,bi)和(lj,aj,bj)分别表示(xi,yi)和(xj,yj)两点在LAB颜色空间对应的三个分量,dc表示两点在LAB颜色空间的距离,ds表示两点在二维平面内的距离,m为表示迭代次数,默认值取10,S为类间最大空间距离,Ds为所求的距离度量;
将超像素分割后的立体图像左视图进行区域相似性合并;经过SLIC算法分割后,图像中的每个分割区域都拥有自己的种子点,基于计算相邻种子点的颜色特征相似性进行区域合并,将超像素图中的n个区域进行合并,得到标签图Lr(x,y):
其中,1≤i≤n,Lr(x,y)为标签图;
b)对区域相似性合并后的标签图采用GBVS算法对区域合并后的图像进行二维空间显著计算,该模型主要包括两步:
1.二维图像特征的提取:采用线性滤波以及非线性滤波提取图像的亮度颜色以及方向的低阶视觉特征;得到特征图M;
2.二维显著图的生成:
首先给定输入图像的一张特征图:M:[n]2→R,然后定义两个特征点之间的距离公式为:
式中M(i,j)和M(p,q)分别代表节点(i,j)、(p,q)两点的相应特征值;将特征图M中的每一个像素点进行两两相连构建图GA,然后计算出(i,j)和(p,q)这两个节点的有向边的相应权重大小:
式中σ为一个自定义参数,默认取值为图像宽度大小的0.1到0.15倍左右,反向边具有同样大小的权重值;首先将每个节点的有向边权重大小都归一化到0到1区间,然后在图GA上定义一条马尔科夫链,通过马尔科夫链的均衡分布反映出每个特征节点之间的差异大小,即对应的显著值,进而得到二维显著图Simg:[n]2→R;
其中深度显著性计算,具体步骤为:
a)采用DERS软件根据输入的左视点图和右视点图计算出相应的原始视差图D;
b)对原始视差图D进行预处理,即首先计算原始视差图D中每行局部视差改变量,初步分离背景与物体:
其中,p表示视差图中的该点像素,d′p和dp分别表示预处理后p点像素的视差值和原始图中p点像素值,表示该行像素点的平均像素值,其中包括dp;得到图像D′;
采用区域对比度算法用于进一步的目标背景的显著性计算,该算法主要包括两大部分:(1)先将图像D′进行图像区域分割,(2)然后计算D′中的每个区域Ri与周围其他区域的视差对比度并进行显著性赋值:
其中,S(Ri)代表区域Ri的显著值,ni表示区域Ri的像素点个数,nk表示区域Rk的像素点个数,d′R(Ri,Rk)表示Ri和Rk两个区域之间的视差对比度大小:
其中,d′(p,q)表示p和q两点之间的视差差值,定义为|d′p-d′q|,ω(p,q)表示权重用来计算p和q两点之间的空间距离,其中σ'2为一个控制参数默认值取0.4,最后将计算后的图像归一化到[0,1]区间,基于屏幕前凸显的物体更为显著值进行显著性映射赋值:
其中,S′R(x,y)代表(x,y)像素点位置的映射显著值,Smax和Smin分别代表SR(x,y)中的最大显著值以及最小显著值;得到视差显著图S′R;
c)利用高斯差分滤波器提取重要的深度感知特征—深度对比度,实现公式下:
其中(x,y)代表滤波器位置,σ”和K分别用来控制滤波器的尺度和高斯核的半径比;取σ”=32,K=1.6;得到深度对比度图SE;
d)再将获取的视差显著图S′R和深度对比度图SE采用线性加权的融合的方式获取深度显著图Sdep:
Sdep=wrS′R+weSE
其中,wr和we分别为视差显著图S′R和深度对比度图SE的权重,这里
wr=we=0.5;
步骤二:显著特征融合
将提取的两种不同维度的显著特征图结合人眼视觉疲劳特性,采取线性加权的融合策略进行融合,进而获取立体图像的显著区域;
具体步骤如下:
SSM(x,y)=λ(γSimg(x,y)+(1-γ)Sdep(x,y))
其中,SSM(x,y),Simg(x,y)和Sdep(x,y)分别表示立体图像显著图,二维空间显著图和深度显著图,γ表示权重默认初始值设为0.5,λ参数表示像素点的视觉舒适特征:
其中,Tneg和Tpos表示视差舒适区域的区域门限值,具体大小值通过实验统计手动设置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611244693.4A CN106780476A (zh) | 2016-12-29 | 2016-12-29 | 一种基于人眼立体视觉特性的立体图像显著性检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611244693.4A CN106780476A (zh) | 2016-12-29 | 2016-12-29 | 一种基于人眼立体视觉特性的立体图像显著性检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106780476A true CN106780476A (zh) | 2017-05-31 |
Family
ID=58928642
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611244693.4A Pending CN106780476A (zh) | 2016-12-29 | 2016-12-29 | 一种基于人眼立体视觉特性的立体图像显著性检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106780476A (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107369131A (zh) * | 2017-07-04 | 2017-11-21 | 华中科技大学 | 图像的显著性检测方法、装置、存储介质和处理器 |
CN107578404A (zh) * | 2017-08-22 | 2018-01-12 | 浙江大学 | 基于视觉显著特征提取的全参考立体图像质量客观评价方法 |
CN108345892A (zh) * | 2018-01-03 | 2018-07-31 | 深圳大学 | 一种立体图像显著性的检测方法、装置、设备及存储介质 |
CN108573221A (zh) * | 2018-03-28 | 2018-09-25 | 重庆邮电大学 | 一种基于视觉的机器人目标零件显著性检测方法 |
CN109167988A (zh) * | 2018-08-29 | 2019-01-08 | 长春理工大学 | 一种基于d+w模型和对比度的立体图像视觉舒适度评价方法 |
CN109410171A (zh) * | 2018-09-14 | 2019-03-01 | 安徽三联学院 | 一种用于雨天图像的目标显著性检测方法 |
CN109472826A (zh) * | 2018-10-26 | 2019-03-15 | 国网四川省电力公司电力科学研究院 | 基于双目视觉的定位方法及装置 |
CN109523590A (zh) * | 2018-10-22 | 2019-03-26 | 福州大学 | 一种基于样例的3d图像深度信息视觉舒适度评估方法 |
CN110458880A (zh) * | 2019-07-15 | 2019-11-15 | 天津大学 | 基于光学和神经注意机制的立体图像视觉舒适度评价方法 |
CN111526354A (zh) * | 2019-11-25 | 2020-08-11 | 杭州电子科技大学 | 一种基于多尺度空间视差信息的立体视频舒适度预测方法 |
CN111881925A (zh) * | 2020-08-07 | 2020-11-03 | 吉林大学 | 一种基于相机阵列选择性光场重聚焦的显著性检测方法 |
CN113592795A (zh) * | 2021-07-19 | 2021-11-02 | 深圳大学 | 立体图像的视觉显著性检测方法、缩略图生成方法和装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104574375A (zh) * | 2014-12-23 | 2015-04-29 | 浙江大学 | 结合彩色和深度信息的图像显著性检测方法 |
CN104778721A (zh) * | 2015-05-08 | 2015-07-15 | 哈尔滨工业大学 | 一种双目图像中显著性目标的距离测量方法 |
CN104835175A (zh) * | 2015-05-26 | 2015-08-12 | 西南科技大学 | 一种基于视觉注意机制的核环境中目标检测方法 |
CN104954778A (zh) * | 2015-06-04 | 2015-09-30 | 宁波大学 | 一种基于感知特征集的立体图像质量客观评价方法 |
CN105898278A (zh) * | 2016-05-26 | 2016-08-24 | 杭州电子科技大学 | 一种基于双目多维感知特性的立体视频显著性检测方法 |
-
2016
- 2016-12-29 CN CN201611244693.4A patent/CN106780476A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104574375A (zh) * | 2014-12-23 | 2015-04-29 | 浙江大学 | 结合彩色和深度信息的图像显著性检测方法 |
CN104778721A (zh) * | 2015-05-08 | 2015-07-15 | 哈尔滨工业大学 | 一种双目图像中显著性目标的距离测量方法 |
CN104835175A (zh) * | 2015-05-26 | 2015-08-12 | 西南科技大学 | 一种基于视觉注意机制的核环境中目标检测方法 |
CN104954778A (zh) * | 2015-06-04 | 2015-09-30 | 宁波大学 | 一种基于感知特征集的立体图像质量客观评价方法 |
CN105898278A (zh) * | 2016-05-26 | 2016-08-24 | 杭州电子科技大学 | 一种基于双目多维感知特性的立体视频显著性检测方法 |
Non-Patent Citations (3)
Title |
---|
HAREL J ET AL: "《Graph-Based Visual Saliency》", 《MIT PRESS》 * |
RADHAKRISHNA ACHANTA ET AL: "《SLIC Superpixels Compared to State-of-the-Art Superpixel Methods》", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 * |
YANG ZHOU ET AL: "《Visual comfort prediction for stereoscopic image using stereoscopic visual saliency》", 《MULTIMEDIA TOOLS AND APPLICATIONS》 * |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107369131A (zh) * | 2017-07-04 | 2017-11-21 | 华中科技大学 | 图像的显著性检测方法、装置、存储介质和处理器 |
CN107369131B (zh) * | 2017-07-04 | 2019-11-26 | 华中科技大学 | 图像的显著性检测方法、装置、存储介质和处理器 |
CN107578404A (zh) * | 2017-08-22 | 2018-01-12 | 浙江大学 | 基于视觉显著特征提取的全参考立体图像质量客观评价方法 |
CN107578404B (zh) * | 2017-08-22 | 2019-11-15 | 浙江大学 | 基于视觉显著特征提取的全参考立体图像质量客观评价方法 |
CN108345892A (zh) * | 2018-01-03 | 2018-07-31 | 深圳大学 | 一种立体图像显著性的检测方法、装置、设备及存储介质 |
CN108345892B (zh) * | 2018-01-03 | 2022-02-22 | 深圳大学 | 一种立体图像显著性的检测方法、装置、设备及存储介质 |
CN108573221A (zh) * | 2018-03-28 | 2018-09-25 | 重庆邮电大学 | 一种基于视觉的机器人目标零件显著性检测方法 |
CN109167988A (zh) * | 2018-08-29 | 2019-01-08 | 长春理工大学 | 一种基于d+w模型和对比度的立体图像视觉舒适度评价方法 |
CN109167988B (zh) * | 2018-08-29 | 2020-06-26 | 长春理工大学 | 一种基于d+w模型和对比度的立体图像视觉舒适度评价方法 |
CN109410171A (zh) * | 2018-09-14 | 2019-03-01 | 安徽三联学院 | 一种用于雨天图像的目标显著性检测方法 |
CN109523590A (zh) * | 2018-10-22 | 2019-03-26 | 福州大学 | 一种基于样例的3d图像深度信息视觉舒适度评估方法 |
CN109523590B (zh) * | 2018-10-22 | 2021-05-18 | 福州大学 | 一种基于样例的3d图像深度信息视觉舒适度评估方法 |
CN109472826A (zh) * | 2018-10-26 | 2019-03-15 | 国网四川省电力公司电力科学研究院 | 基于双目视觉的定位方法及装置 |
CN110458880A (zh) * | 2019-07-15 | 2019-11-15 | 天津大学 | 基于光学和神经注意机制的立体图像视觉舒适度评价方法 |
CN110458880B (zh) * | 2019-07-15 | 2023-04-11 | 天津大学 | 基于光学和神经注意机制的立体图像视觉舒适度评价方法 |
CN111526354A (zh) * | 2019-11-25 | 2020-08-11 | 杭州电子科技大学 | 一种基于多尺度空间视差信息的立体视频舒适度预测方法 |
CN111881925A (zh) * | 2020-08-07 | 2020-11-03 | 吉林大学 | 一种基于相机阵列选择性光场重聚焦的显著性检测方法 |
CN113592795A (zh) * | 2021-07-19 | 2021-11-02 | 深圳大学 | 立体图像的视觉显著性检测方法、缩略图生成方法和装置 |
CN113592795B (zh) * | 2021-07-19 | 2024-04-12 | 深圳大学 | 立体图像的视觉显著性检测方法、缩略图生成方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106780476A (zh) | 一种基于人眼立体视觉特性的立体图像显著性检测方法 | |
CN104574375B (zh) | 结合彩色和深度信息的图像显著性检测方法 | |
US20180165511A1 (en) | Three-dimensional facial recognition method and system | |
CN101443817B (zh) | 用于确定场景的三维重建时的对应关系的方法和装置 | |
Zhang et al. | Multi-focus image fusion algorithm based on focused region extraction | |
CN103971116A (zh) | 基于Kinect的感兴趣区域检测方法 | |
CN111754396B (zh) | 脸部图像处理方法、装置、计算机设备和存储介质 | |
CN107301664A (zh) | 基于相似性测度函数的改进局部立体匹配方法 | |
CN104778721A (zh) | 一种双目图像中显著性目标的距离测量方法 | |
CN103530599A (zh) | 一种真实人脸和图片人脸的区别方法和*** | |
CN105740775A (zh) | 一种三维人脸活体识别方法及其装置 | |
CN105898278B (zh) | 一种基于双目多维感知特性的立体视频显著性检测方法 | |
CN105913013A (zh) | 双目视觉人脸识别算法 | |
CN104850850A (zh) | 一种结合形状和颜色的双目立体视觉图像特征提取方法 | |
CN103996195A (zh) | 一种图像显著性检测方法 | |
CN108596975A (zh) | 一种针对弱纹理区域的立体匹配算法 | |
Kumari et al. | A survey on stereo matching techniques for 3D vision in image processing | |
US20180182118A1 (en) | Establishment method of 3D Saliency Model Based on Prior Knowledge and Depth Weight | |
CN103268482B (zh) | 一种低复杂度的手势提取和手势深度获取方法 | |
KR20130053980A (ko) | 영상 데이터 융합 기반의 장애물체 검출 방법 및 장치 | |
CN106651836A (zh) | 一种基于双目视觉的地平面检测方法 | |
CN111325107A (zh) | 检测模型训练方法、装置、电子设备和可读存储介质 | |
CN107886533B (zh) | 立体图像的视觉显著性检测方法、装置、设备及存储介质 | |
CN104243970A (zh) | 基于立体视觉注意力机制和结构相似度的3d绘制图像的客观质量评价方法 | |
CN102509299A (zh) | 基于视觉注意机制的图像显著区域检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170531 |