CN104680523B - 基于前景和背景先验的多模态区域一致性的显著性对象检测方法 - Google Patents

基于前景和背景先验的多模态区域一致性的显著性对象检测方法 Download PDF

Info

Publication number
CN104680523B
CN104680523B CN201510072313.2A CN201510072313A CN104680523B CN 104680523 B CN104680523 B CN 104680523B CN 201510072313 A CN201510072313 A CN 201510072313A CN 104680523 B CN104680523 B CN 104680523B
Authority
CN
China
Prior art keywords
mrow
msub
plane
represent
segmentation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510072313.2A
Other languages
English (en)
Other versions
CN104680523A (zh
Inventor
张剑华
王其超
谢榛
赵妍珠
陈胜勇
张建伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Huicui Intelligent Technology Co ltd
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN201510072313.2A priority Critical patent/CN104680523B/zh
Publication of CN104680523A publication Critical patent/CN104680523A/zh
Application granted granted Critical
Publication of CN104680523B publication Critical patent/CN104680523B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

一种基于前景和背景先验的多模态区域一致性的显著性对象检测方法,包括如下步骤:1)获得场景的颜色图像和深度图像,同时生成点云;2)采用颜色图和深度图将场景分割;3)采用基于对象区域检测方法,对图像的所有区域进行检测得到焦点区域,在颜色图像中将焦点区域作为前景先验;4)检测出点云的平面区域作为背景先验,从颜色图像和对应深度图像中得到点云数据,在点云数据中检测出平面结构,然后计算连接场景边界的边界长度,计算出平面分割的背景连通度,并且得到过分割的背景权重;5)计算得到全局区域对比度SG(rk),显著性图通过下面的公式得到:S(rk)=SF(rk)×SB(rk)×SG(rk)。本发明有效提升正确率。

Description

基于前景和背景先验的多模态区域一致性的显著性对象检测 方法
技术领域
本发明涉及计算机视觉技术,尤其是一种图像处理和显著性对象检测方法。
背景技术
视觉显著性指的是在环境中异于邻近区域的子区域并且能够快速吸引观察者的注意力。视觉显著性的最重要的应用之一是从复杂场景中快速搜索显著性对象。许多机器人***也用视觉显著性来进行对象识别和检测。
通过视觉显著性进行对象检测,由于人类总是把对象看作一个整体,希望包含对象的子区域具有相同或相似的显著性值,然而,大部分已经存在的方法使用基于像素的方法去计算显著性,得到的显著性值从像素到像素变化。此外,已经存在的大部分方法只是基于二维图像,其中显著性对象和背景之间相同的颜色或纹理造成显著性提取的正确率降低。
发明内容
为了克服已有视觉显著性对象检测方式的正确率较低不足,本发明提供一种有效提升正确率的基于前景和背景先验的多模态区域一致性的显著性对象检测方法。
本发明解决其技术问题所采用的技术方案是:
一种基于前景和背景先验的多模态区域一致性的显著性对象检测方法,所述检测方法包括如下步骤:
1)获得场景的颜色图像和深度图像,同时生成点云;
2)采用颜色图和深度图将场景分割
计算颜色空间和深度空间像素间的差异值D(C1,C2)的过程如下:
其中,vi和vj是组件,C1和C2各自的节点,E表示邻域***,w(vi,vj)表示边权函数;
其中,参数λ控制颜色和深度通道的权值,I(pi),I(pj)分别表示两个像素的强度;
采用自适应方法确定权值λ:
λ=1.0-min(α,β*ndp/ncl)
其中ndp和ncl是深度图和颜色图的过分割数目,参数β是用于调整颜色图和深度图之间对过分割贡献的比例,参数α是用于保证颜色图的最小贡献量,参数α为0~1之间的小数;
3)采用基于对象区域检测方法,对图像的所有区域进行检测得到焦点区域,在颜色图像中将焦点区域作为前景先验;
采用不同大小的高斯核对图像进行卷积操作,得到卷积图像,计算每幅卷积图像中所有像素水平方向和垂直方向上的梯度,然后得到每幅卷积图像中的像素分布直方图;
通过一个k*k的核以及梯度的对数似然函数来得到:
其中表示水平和垂直梯度的分布,从卷积图中计算得到,N(x)是像素x的邻域窗口;通过找到所有核大小的lk(x)的最大值,找到一个核,用k*(x)表示,看作是用于解释图的最好的一批窗口;核的大小能反映窗口的清晰度;对于每个像素,存在一个对应的k*(x),并且它能用于表示清晰或者模糊的区域,通过定义一个二值图:
将U映射到水平和垂直轴上后,统计二值图中从水平到垂直方向的白色像素的个数,从而获得两组坐标,作为焦点区域,得到焦点区域后,计算带有前景先验的显著性SF(rk),定义如下:
其中,dist()表示过分割rk的中心到焦点区域的中心的距离,并且表示焦点区域内所有过分割之间的最大距离;
4)检测出点云的平面区域作为背景先验
从颜色图像和对应深度图像中得到点云数据,在点云数据中检测出平面结构,然后计算连接场景边界的边界长度,计算出平面分割的背景连通度,并且得到过分割的背景权重;
用下面的定义作为平面分割的背景连通度:
其中,Bg(pi)是平面分割pi的连通度,Len(pi)是边界的长度,它跟场景边界相邻,并且|pi|是分割平面pi的面积;
基于背景连通度,定义一个过分割rk的背景权值:
其中,Bw(rk)是过分割rk的背景权值,P是所有检测到平面pi的集合;
Bw(rk)值的范围是从0到1,根据背景权值,定义背景先验的显著性SB(rk):
SB(rk)=1-Bw(rk)
5)计算得到全局区域对比度
全局区域对比度SG(rk),定义如下:
其中Dr(rk,ri)和Ds(rk,ri)表示区域rk和ri之间各自颜色和空间距离,σ确定空间权值的长度,w(ri)表示区域ri的权值,计算出来作为区域ri中的像素个数;
显著性图通过下面的公式得到:
S(rk)=SF(rk)×SB(rk)×SG(rk)
其中,SF(rk)表示前景先验显著性值,SB(rk)表示背景先验显著性值,SG(rk)表示全局区域对比度,S(rk)表示最终得到的显著性图。
本发明的技术构思为:首先精确分割对象,然后将不同的显著性分配到属于一个对象的区域中的点。通过采用多模态数据,利用不同模态之间的互补性减少其他对象和背景的影响。
特别地,首先基于新的自适应方法,将场景分割成采用颜色图和深度图的过分割。接下来,从颜色图模态中的每个过分割计算全局区域对比的显著性。然后,基于两个新线索的显著性,如从颜色图计算得到的焦点区域先验,以及通过点云计算得到的平面背景先验,同样被考虑进来。最终,我们将二者集成进来,得到一个多模态显著性图,使得区域中具有相同的显著性值。
本发明的有益效果主要表现在:有效地融合了彩色图、深度图、点云图,进行更为精确的显著性计算,能够有效提升基于显著性进行检测的准确率。
具体实施方式
下面对本发明作进一步描述。
一种基于前景和背景先验的多模态区域一致性的显著性对象检测方法,包括如下步骤:
1)从Kinect深度相机中获得场景的颜色图像和深度图像,同时生
成点云;
2)采用颜色图和深度图将场景分割
场景分割的过程如下:根据图像不同区域特征间的差异,分别分割颜色图三个通道上的图像,计算这三个分割集合的交集,然后将深度图作为第四个通道,边权函数同时计算颜色空间和深度空间中像素间的差异值,采用自适应方法确定边权函数中的权值。
计算颜色空间和深度空间像素间的差异值的过程如下:
其中,D(C1,C2)表示差异值,vi和vj是组件C1C2各自的节点,E表示邻域***,w(vi,vj)表示边权函数。
其中参数λ控制颜色和深度通道的权值,I(pi),I(pj)分别表示两个像素的强度。
确定参数λ的值的方法如下:
采用一种自适应方法去确定权值λ
λ=1.0-min(α,β*ndp/ncl)
其中ndp和ncl是深度图和颜色图的过分割数目参数β是用于调整颜色图和深度图之间对过分割贡献的比例,值设为5到15之间,参数α用于保证颜色图的最小贡献量,设为0.8,确保产生过分割时20%是由颜色图贡献;
根据这个公式,深度图和颜色图能相互自动补充。
3)采用基于对象区域检测方法,对图像的所有区域进行检测,得到焦点区域,在颜色图像中将焦点区域作为前景先验。
基于对象区域检测方法检测焦点区域的过程如下:采用不同大小的高斯核对图像进行卷积操作,得到卷积图像,计算每幅卷积图像中所有像素水平方向和垂直方向上的梯度,然后得到每幅卷积图像中的像素分布直方图。
它可以用于度量一批像素是如何解释通过一个k*k的核以及下面这个梯度的对数似然函数来得到:
其中表示水平和垂直梯度的分布,从卷积图中计算得到,N(x)是像素x的邻域窗口;通过找到所有核大小的lk(x)的最大值,找到一个核,用k*(x)表示,看作是用于解释图的最好的一批窗口;核的大小能反映窗口的清晰度;对于每个像素,存在一个对应的k*(x),并且它能用于表示清晰或者模糊的区域,通过定义一个二值图:
将U映射到水平和垂直轴上后,我们统计二值图中从水平到垂直方向的白色像素的个数。
从而获得两组坐标,作为焦点区域,得到焦点区域后,计算带有前景先验的显著性,离焦点区域越近的区域,该区域的显著性值越高。
前景先验的显著性定义:
其中dist()表示过分割rk的中心到焦点区域的中心的距离,并且表示焦点区域内所有过分割之间的最大距离。
4)检测出点云的平面区域作为背景先验。
采用平面分割去检测背景的过程如下:首先,从颜色图像和对应深度图像中得到点云数据,在点云数据中检测出平面结构,然后计算连接场景边界的边界长度,计算出平面分割的背景连通度,并且得到过分割的背景权重,背景权重越大过分割和平面分割之间的重叠区域越多。
用下面的定义作为平面分割的背景连通度:
其中,Bg(pi)是平面分割pi的连通度,Len(pi)是边界的长度,它跟场景边界相邻,并且|pi|是分割平面pi的面积。
基于背景连通度,我们简单的定义一个过分割rk的背景权值:
其中,Bw(rk)是过分割rk的背景权值,P是所有检测到平面的集合;
因此,过分割rk和所有平面分割之间的重叠区域越多,Bw(rk)值越大。意味着rk有更大的可能性是属于背景,并且有很小的显著性。明显地,Bw(rk)值的范围是从0到1,并且因此基于背景权值,我们能定义背景先验的显著性SB(rk),
SB(rk)=1-Bw(rk)
5)计算得到全局区域对比度,全局区域对比度结合上文得到前景先验和背景先验计算得到多模态区域一致性显著性。
通过扩展,得到全局区域对比度SG(rk),定义如下:
其中Dr(rk,ri)和Ds(rk,ri)表示区域rk和ri之间各自颜色和空间距离,σ确定空间权值的长度,w(ri)表示区域ri的权值,它计算出来作为区域ri中的像素个数。
然后,最终的显著性图能通过下面的公式得到:
S(rk)=SF(rk)×SB(rk)×SG(rk)
其中,SF(rk)表示前景先验显著性值,SB(rk)表示背景先验显著性值,SG(rk)表示全局区域对比度,S(rk)表示最终得到的显著性图。

Claims (1)

1.一种基于前景和背景先验的多模态区域一致性的显著性对象检测方法,其特征在于:所述检测方法包括如下步骤:
1)获得场景的颜色图像和深度图像,同时生成点云;
2)采用颜色图和深度图将场景分割
计算颜色空间和深度空间像素间的差异值D(C1,C2)的过程如下:
<mrow> <mi>D</mi> <mrow> <mo>(</mo> <msub> <mi>C</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>C</mi> <mn>2</mn> </msub> <mo>)</mo> </mrow> <mo>=</mo> <munder> <mrow> <mi>arg</mi> <mi>min</mi> </mrow> <mrow> <msub> <mi>v</mi> <mi>i</mi> </msub> <mo>&amp;Element;</mo> <msub> <mi>C</mi> <mn>1</mn> </msub> <mo>,</mo> <msub> <mi>v</mi> <mi>j</mi> </msub> <mo>&amp;Element;</mo> <msub> <mi>C</mi> <mn>2</mn> </msub> <mo>,</mo> <mrow> <mo>(</mo> <msub> <mi>v</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>v</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mo>&amp;Element;</mo> <mi>E</mi> </mrow> </munder> <mi>w</mi> <mrow> <mo>(</mo> <msub> <mi>v</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>v</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> </mrow>
其中,vi和vj是组件C1和C2各自的节点,E表示邻域***,w(vi,vj)表示边权函数;
<mrow> <mi>w</mi> <mrow> <mo>(</mo> <msub> <mi>v</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>v</mi> <mi>j</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mi>&amp;lambda;</mi> <msup> <mrow> <mo>|</mo> <mrow> <msubsup> <mi>I</mi> <msub> <mi>P</mi> <mi>i</mi> </msub> <mi>c</mi> </msubsup> <mo>-</mo> <msubsup> <mi>I</mi> <msub> <mi>P</mi> <mi>j</mi> </msub> <mi>c</mi> </msubsup> </mrow> <mo>|</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>-</mo> <mi>&amp;lambda;</mi> <mo>)</mo> </mrow> <msup> <mrow> <mo>|</mo> <mrow> <msubsup> <mi>I</mi> <msub> <mi>P</mi> <mi>i</mi> </msub> <mi>d</mi> </msubsup> <mo>-</mo> <msubsup> <mi>I</mi> <msub> <mi>P</mi> <mi>j</mi> </msub> <mi>d</mi> </msubsup> </mrow> <mo>|</mo> </mrow> <mn>2</mn> </msup> </mrow>
其中,参数λ控制颜色和深度通道的权值,分别表示两个像素的颜色强度;分别表示两个像素的深度;
采用自适应方法确定权值λ:
λ=1.0-min(α,β*ndp/ncl)
其中ndp和ncl是深度图和颜色图的过分割数目,参数β是用于调整颜色图和深度图之间对过分割贡献的比例,参数α是用于保证颜色图的最小贡献量,参数α为0~1之间的小数;
3)采用基于对象区域检测方法,对图像的所有区域进行检测得到焦点区域,在颜色图像中将焦点区域作为前景先验;
采用不同大小的高斯核对图像进行卷积操作,得到卷积图像,计算每幅卷积图像中所有像素水平方向和垂直方向上的梯度,然后得到每幅卷积图像中的像素分布直方图;
通过一个k*k的核以及梯度的对数似然函数来得到:
<mrow> <msub> <mi>l</mi> <mi>k</mi> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>=</mo> <munder> <mi>&amp;Sigma;</mi> <mrow> <msup> <mi>x</mi> <mo>&amp;prime;</mo> </msup> <mo>&amp;Element;</mo> <mi>N</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> </mrow> </munder> <mrow> <mo>(</mo> <mi>log</mi> <mi> </mi> <msubsup> <mi>p</mi> <mi>k</mi> <mi>h</mi> </msubsup> <mo>(</mo> <msup> <mi>x</mi> <mo>&amp;prime;</mo> </msup> <mo>)</mo> <mo>+</mo> <mi>log</mi> <mi> </mi> <msubsup> <mi>p</mi> <mi>k</mi> <mi>v</mi> </msubsup> <mo>(</mo> <msup> <mi>x</mi> <mo>&amp;prime;</mo> </msup> <mo>)</mo> <mo>)</mo> </mrow> </mrow>
其中表示水平和垂直梯度的分布,从卷积图中计算得到,N(x)是像素x的邻域窗口;通过找到所有核大小的lk(x)的最大值,找到一个核,用k*(x)表示,看作是用于解释图的最好的一批窗口;核的大小能反映窗口的清晰度;对于每个像素,存在一个对应的k*(x),并且它能用于表示清晰或者模糊的区域,通过定义一个二值图:
<mrow> <mi>U</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mn>1</mn> <mo>,</mo> <mi>k</mi> <mo>*</mo> <mo>(</mo> <mi>x</mi> <mo>)</mo> <mo>&amp;le;</mo> <mn>3</mn> </mtd> </mtr> <mtr> <mtd> <mn>0</mn> <mo>,</mo> <mi>o</mi> <mi>t</mi> <mi>h</mi> <mi>e</mi> <mi>r</mi> <mi>w</mi> <mi>i</mi> <mi>s</mi> <mi>e</mi> </mtd> </mtr> </mtable> </mfenced> </mrow>
将U映射到水平和垂直轴上后,统计二值图中从水平到垂直方向的白色像素的个数,从而获得两组坐标,作为焦点区域,得到焦点区域后,计算带有前景先验的显著性SF(rk),定义如下:
<mrow> <msub> <mi>S</mi> <mi>F</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>r</mi> <mi>k</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mn>1</mn> <mo>-</mo> <mfrac> <mrow> <mi>d</mi> <mi>i</mi> <mi>s</mi> <mi>t</mi> <mrow> <mo>(</mo> <msub> <mi>r</mi> <mi>k</mi> </msub> <mo>,</mo> <msub> <mi>r</mi> <mrow> <mi>f</mi> <mi>p</mi> </mrow> </msub> <mo>)</mo> </mrow> </mrow> <mrow> <msub> <mi>max</mi> <mrow> <msub> <mi>r</mi> <mi>i</mi> </msub> <mo>&amp;Element;</mo> <mi>r</mi> </mrow> </msub> <mi>d</mi> <mi>i</mi> <mi>s</mi> <mi>t</mi> <mrow> <mo>(</mo> <msub> <mi>r</mi> <mi>i</mi> </msub> <mo>,</mo> <msub> <mi>r</mi> <mrow> <mi>f</mi> <mi>p</mi> </mrow> </msub> <mo>)</mo> </mrow> </mrow> </mfrac> </mrow>
其中,dist()表示过分割的中心到焦点区域的中心的距离,并且表示焦点区域内所有过分割之间的最大距离,rk表示过分割,rfp表示焦点区域,ri表示所有过分割区域中的第i个区域,r表示所有过分割区域的集合;
4)检测出点云的平面区域作为背景先验
从颜色图像和对应深度图像中得到点云数据,在点云数据中检测出平面结构,然后计算连接场景边界的边界长度,计算出平面分割的背景连通度,并且得到过分割的背景权重;
用下面的定义作为平面分割的背景连通度:
<mrow> <mi>B</mi> <mi>g</mi> <mrow> <mo>(</mo> <msub> <mi>plane</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <mi>L</mi> <mi>e</mi> <mi>n</mi> <mrow> <mo>(</mo> <msub> <mi>plane</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> </mrow> <msqrt> <mrow> <mo>|</mo> <mrow> <msub> <mi>plane</mi> <mi>i</mi> </msub> </mrow> <mo>|</mo> </mrow> </msqrt> </mfrac> </mrow>
其中,Bg(planei)是平面分割planei的连通度,Len(planei)是边界的长度,它跟场景边界相邻,并且|planei|是分割平面planei的面积;
基于背景连通度,定义一个过分割rk的背景权值:
<mrow> <mi>B</mi> <mi>w</mi> <mrow> <mo>(</mo> <msub> <mi>r</mi> <mi>k</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <munder> <mo>&amp;Sigma;</mo> <mrow> <msub> <mi>plane</mi> <mi>i</mi> </msub> <mo>&amp;Element;</mo> <mi>P</mi> </mrow> </munder> <mi>B</mi> <mi>g</mi> <mrow> <mo>(</mo> <msub> <mi>plane</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <mfrac> <mrow> <mo>|</mo> <mrow> <msub> <mi>r</mi> <mi>k</mi> </msub> <mo>&amp;cap;</mo> <msub> <mi>plane</mi> <mi>i</mi> </msub> </mrow> <mo>|</mo> </mrow> <mrow> <mo>|</mo> <msub> <mi>r</mi> <mi>k</mi> </msub> <mo>|</mo> </mrow> </mfrac> </mrow>
其中,Bw(rk)是过分割rk的背景权值,P是所有检测到平面planei的集合;
Bw(rk)值的范围是从0到1,根据背景权值,定义背景先验的显著性SB(rk):
SB(rk)=1-Bw(rk)
5)计算得到全局区域对比度
全局区域对比度SG(rk),定义如下:
<mrow> <msub> <mi>S</mi> <mi>G</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>r</mi> <mi>k</mi> </msub> <mo>)</mo> </mrow> <mo>=</mo> <munder> <mi>&amp;Sigma;</mi> <mrow> <msub> <mi>r</mi> <mi>k</mi> </msub> <mo>&amp;NotEqual;</mo> <msub> <mi>r</mi> <mi>i</mi> </msub> </mrow> </munder> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <msub> <mi>D</mi> <mi>s</mi> </msub> <mo>(</mo> <mrow> <msub> <mi>r</mi> <mi>k</mi> </msub> <mo>,</mo> <msub> <mi>r</mi> <mi>i</mi> </msub> </mrow> <mo>)</mo> <mo>/</mo> <msup> <mi>&amp;sigma;</mi> <mn>2</mn> </msup> <mo>)</mo> </mrow> <mi>w</mi> <mrow> <mo>(</mo> <msub> <mi>r</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> <msub> <mi>D</mi> <mi>r</mi> </msub> <mrow> <mo>(</mo> <msub> <mi>r</mi> <mi>k</mi> </msub> <mo>,</mo> <msub> <mi>r</mi> <mi>i</mi> </msub> <mo>)</mo> </mrow> </mrow>
其中Dr(rk,ri)和Ds(rk,ri)表示区域rk和ri之间各自颜色和空间距离,σ确定空间权值的长度,w(ri)表示区域ri的权值,是区域ri中的像素个数;
显著性图通过下面的公式得到:
S(rk)=SF(rk)×SB(rk)×SG(rk)
其中,SF(rk)表示前景先验显著性值,SB(rk)表示背景先验显著性值,SG(rk)表示全局区域对比度,S(rk)表示最终得到的显著性图。
CN201510072313.2A 2015-02-11 2015-02-11 基于前景和背景先验的多模态区域一致性的显著性对象检测方法 Active CN104680523B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510072313.2A CN104680523B (zh) 2015-02-11 2015-02-11 基于前景和背景先验的多模态区域一致性的显著性对象检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510072313.2A CN104680523B (zh) 2015-02-11 2015-02-11 基于前景和背景先验的多模态区域一致性的显著性对象检测方法

Publications (2)

Publication Number Publication Date
CN104680523A CN104680523A (zh) 2015-06-03
CN104680523B true CN104680523B (zh) 2017-12-19

Family

ID=53315516

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510072313.2A Active CN104680523B (zh) 2015-02-11 2015-02-11 基于前景和背景先验的多模态区域一致性的显著性对象检测方法

Country Status (1)

Country Link
CN (1) CN104680523B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105139416A (zh) * 2015-10-10 2015-12-09 北京微尘嘉业科技有限公司 一种基于图像信息和深度信息的物体识别方法
CN107563357B (zh) * 2017-09-29 2021-06-04 北京奇虎科技有限公司 基于场景分割的直播服饰装扮推荐方法、装置及计算设备
CN108805139B (zh) * 2018-05-07 2022-02-18 南京理工大学 一种基于频域视觉显著性分析的图像相似性计算方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102722891A (zh) * 2012-06-12 2012-10-10 大连理工大学 一种图像显著度检测的方法
CN103810707A (zh) * 2014-01-28 2014-05-21 华东理工大学 一种基于移动视觉焦点的图像视觉显著性检测方法
EP2797052A2 (en) * 2013-04-26 2014-10-29 Omron Corporation Detecting a saliency region in an image

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102722891A (zh) * 2012-06-12 2012-10-10 大连理工大学 一种图像显著度检测的方法
EP2797052A2 (en) * 2013-04-26 2014-10-29 Omron Corporation Detecting a saliency region in an image
CN103810707A (zh) * 2014-01-28 2014-05-21 华东理工大学 一种基于移动视觉焦点的图像视觉显著性检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Finding objects at indoor environment combined with depth information";Yongqiang Gao 等;《ICMA》;20110810;第687-692页 *
"Integrate Multi-Modal Cues for Category-Independent Object Detection and Localization";Jianhua Zhang 等;《IROS》;20110930;第801-806页 *

Also Published As

Publication number Publication date
CN104680523A (zh) 2015-06-03

Similar Documents

Publication Publication Date Title
CN106650640B (zh) 一种基于激光雷达点云局部结构特征的负障碍物检测方法
CN108537782B (zh) 一种基于轮廓提取的建筑物图像匹配与融合的方法
CN103971366B (zh) 一种基于双权重聚合的立体匹配方法
CN109086724B (zh) 一种加速的人脸检测方法及存储介质
CN107092871B (zh) 基于多尺度多特征融合的遥感影像建筑物检测方法
CN108280450A (zh) 一种基于车道线的高速公路路面检测方法
CN107358245B (zh) 一种图像协同显著区域的检测方法
CN108682039B (zh) 一种双目立体视觉测量方法
CN103177451B (zh) 基于图像边缘的自适应窗口和权重的立体匹配算法
CN103458261B (zh) 一种基于立体视觉的视频场景变化检测方法
CN104463870A (zh) 一种图像显著区域检测方法
CN103826032B (zh) 深度图后期处理方法
CN107687819A (zh) 一种快速高精度的光条中心亚像素提取方法
CN106651897B (zh) 一种基于超像素分割的视差修正方法
CN107369158A (zh) 基于rgb‑d图像的室内场景布局估计及目标区域提取方法
CN104680523B (zh) 基于前景和背景先验的多模态区域一致性的显著性对象检测方法
CN110322572A (zh) 一种基于双目视觉的水下涵隧内壁三维信息恢复方法
CN104408711A (zh) 一种基于多尺度区域融合的显著区域检测方法
CN111681275B (zh) 一种双特征融合的半全局立体匹配方法
US20170178341A1 (en) Single Parameter Segmentation of Images
CN109801283A (zh) 一种基于水滴偏移距离的复合绝缘子憎水性等级判定方法
CN107452013A (zh) 基于Harris角点检测和Sugeno模糊积分的显著性检测方法
Abd Manap et al. Disparity refinement based on depth image layers separation for stereo matching algorithms
Dong et al. Outlier detection and disparity refinement in stereo matching
CN113140002B (zh) 基于双目立体相机的道路状况检测方法、***和智能终端

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20230714

Address after: No. 998, Wenyi West Road, Yuhang District, Hangzhou City, Zhejiang Province

Patentee after: HANGZHOU HUICUI INTELLIGENT TECHNOLOGY CO.,LTD.

Address before: 310014 Zhejiang University of Technology, 18 Zhaowang Road, Zhaohui six District, Hangzhou, Zhejiang

Patentee before: JIANG University OF TECHNOLOGY

TR01 Transfer of patent right