CN107392950A - 一种基于弱纹理检测的跨尺度代价聚合立体匹配方法 - Google Patents
一种基于弱纹理检测的跨尺度代价聚合立体匹配方法 Download PDFInfo
- Publication number
- CN107392950A CN107392950A CN201710631310.7A CN201710631310A CN107392950A CN 107392950 A CN107392950 A CN 107392950A CN 201710631310 A CN201710631310 A CN 201710631310A CN 107392950 A CN107392950 A CN 107392950A
- Authority
- CN
- China
- Prior art keywords
- mrow
- msup
- mtd
- msub
- munder
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
Abstract
本发明一种基于弱纹理检测的跨尺度代价聚合立体匹配方法属于计算机视觉领域,尤其涉及对弱纹理图像的立体匹配方法,包括以下步骤:输入两幅彩色图像,所述的两幅彩色图像分别为左图像和右图像,利用左图像的梯度信息对图片进行弱纹理检测和分割;根据左图像和右图像的颜色信息和梯度信息计算匹配代价;以上述中的弱纹理检测和分割结果为基准,进行基于高斯滤波的内尺度和跨尺度代价聚合;采用嬴者全取策略计算视差;采用左右一致性检测和基于自适应权重的方法对视差精化,输出视差图像。本发明实现了在保证纹理区域匹配正确率的前提下,提高弱纹理区域匹配正确率,获得更好的视差图的技术目的。
Description
技术领域
本发明一种基于弱纹理检测的跨尺度代价聚合立体匹配方法属于计算机视觉领域,尤其涉及对弱纹理图像的立体匹配方法。
背景技术
双目立体视觉(BinocularStereoVision)是计算机视觉的一种重要形式,它是基于视差原理并利用成像设备从不同的位置获取被测物体的两幅图像,通过计算图像对应点间的位置偏差,来获取物体三维几何信息的方法。而三维信息获取的好坏主要取决于立体匹配所得视差图正确率的高低。目前立体匹配存在的问题主要有光照不均、曝光过度等外界因素,以及图片本身会存在遮挡、弱纹理、重复纹理等计算机难以区分的图片本身特征。虽然大量学者已经对立体匹配研究多年,但对于弱纹理区域的匹配仍是图像处理领域的一个难点。如何保证纹理区域匹配正确率的前提下,提高弱纹理区域匹配正确率,获得更好的视差图是一重大问题。
发明内容
本发明提供了一种基于弱纹理检测的跨尺度代价聚合立体匹配方法,能够在保证纹理区域匹配正确率的前提下,提高弱纹理区域匹配正确率,获得更好的视差图。
本发明的目的是这样实现的:
一种基于弱纹理检测的跨尺度代价聚合立体匹配方法,包括以下步骤:
步骤a、输入两幅彩色图像,所述的两幅彩色图像分别为左图像和右图像,利用左图像的梯度信息对图片进行弱纹理检测和分割;
步骤b、根据左图像和右图像的颜色信息和梯度信息计算匹配代价;
步骤c、以步骤a中的弱纹理检测和分割结果为基准,进行基于高斯滤波的内尺度和跨尺度代价聚合;
步骤d、采用嬴者全取策略计算视差;
步骤e、采用左右一致性检测和基于自适应权重的方法对视差精化,输出视差图像。
所述的一种基于弱纹理检测的跨尺度代价聚合立体匹配方法,所述步骤a中对图片进行弱纹理检测和分割具体为:
计算左图像坐标为(x,y)处像素点的梯度值为g(x,y),并与梯度阈值gT比较,判断是否为弱纹理区域,其计算公式为:
g(x,y)<gT
式中:N(x,y)表示以像素(x,y)为中心的窗口,M表示窗口中像素的个数,I(x,y)表示像素的灰度值。
所述的一种基于弱纹理检测的跨尺度代价聚合立体匹配方法,所述步骤b中计算匹配代价具体为:
计算立体彩色图像对左图像IL和右图像IR的匹配代价C(p,d),其计算公式为:
C(p,d)=(1-α)·CAD(p,d)+α·(Cgrad_x(p,d)+Cgrad_y(p,d))
式中:p是左图像中一点,式中i=R,G,B分别代表彩色图像的三个通道,TAD和Tgrad分别代表颜色和梯度的截断阈值;分别表示图片在x、y方向的梯度算子;α是颜色差和梯度差之间的平衡因子。
所述的一种基于弱纹理检测的跨尺度代价聚合立体匹配方法,所述步骤c中代价聚合具体为:
其中,表示聚合后的匹配代价,z为期望的优化目标值,W是高斯滤波核,N是像素p的邻域窗口,q是p的邻域像素点;s∈{0,1,...,S}为尺度参数,s=0时,C0代表图像原始尺度匹配代价;代表图像的S+1个尺度的聚合代价;
式中,λ为正则化因子,用表示公式(11)的优化目标函数,令有:
其中,Thigh和Tlow分别代表前文中检测出来的纹理区域和弱纹理区域;C1和C1/2分别代表原图像尺度和二分之一尺度的匹配代价,用不同大小的窗口进行高斯滤波,融合后得到最终的匹配代价。
所述的一种基于弱纹理检测的跨尺度代价聚合立体匹配方法,所述步骤e中视差精化具体为:
|D'L(P)-D'R(P-D'R(P))|<δ
DLRC(P)=min(D'(PL),D'(PR))
其中,视差图中的一点p的左图视差值D'L(p)和右图视差值D'R(p-D'L(p)),δ为LRC的阈值;D′(PL)为左侧的第一个非遮挡点的视差值,D(PR)为右侧的第一个非遮挡点的视差值;WBpq(IL)为左图像的函数,Δcpq和Δspq分别为左图像中点p与q的色彩差异和空间欧式距离,和分别为色彩差异和距离差异的调节参数;Dw(p)滤波后的图像。
有益效果:
本发明一种基于弱纹理检测的跨尺度代价聚合立体匹配方法,本发明提出一种新的立体匹配算法,针对图片区域是否属于弱纹理,选取恰当的匹配方法,从而提高立体匹配的正确率,获得更好的视差图。
应用本实施方式算法处理的立体匹配图像对,在图片的纹理区域和弱纹理区域都可以取得较好的效果,错误匹配率有所降低(比不进行弱纹理区域分割算法低5%)。说明本实施方式算法可以在保证纹理区域匹配正确率的前提下,提高弱纹理区域匹配正确率,获得更好的视差图。
附图说明
图1是一种基于弱纹理检测的跨尺度代价聚合立体匹配方法流程图。
图2是Bowling1视差图。
图3是Lampshade1视差图。
图4是Monopoly视差图。
图5是Plastic视差图。
具体实施方式
下面结合附图对本发明具体实施方式作进一步详细描述。
具体实施例一
一种基于弱纹理检测的跨尺度代价聚合立体匹配方法,如图1所示,包括以下步骤:
步骤a、输入两幅彩色图像,所述的两幅彩色图像分别为左图像和右图像,利用左图像的梯度信息对图片进行弱纹理检测和分割;
步骤b、根据左图像和右图像的颜色信息和梯度信息计算匹配代价;
步骤c、以步骤a中的弱纹理检测和分割结果为基准,进行基于高斯滤波的内尺度和跨尺度代价聚合;
步骤d、采用嬴者全取策略计算视差;
步骤e、采用左右一致性检测和基于自适应权重的方法对视差精化,输出视差图像。
按照以上步骤,选择四张图片进行对比,如图2、图3、图4和图5所示,
图2中,图2(a)是Bowling1原图像左图;图2(b)是Bowling1真实视差图;图2(c)是Bowling1弱纹理检测结果;图2(d)是Bowling1最终视差图;图2(e)是Bowling1不进行弱纹理检测的视差图。
图3中,图3(a)是Lampshade1原图像左图;图3(b)是Lampshade1真实视差图;图3(c)是Lampshade1弱纹理检测结果;图3(d)是Lampshade1最终视差图;图3(e)是Lampshade1不进行弱纹理检测的视差图。
图4中,图4(a)是Monopoly原图像左图;图4(b)是Monopoly真实视差图;图4(c)是Monopoly弱纹理检测结果;图4(d)是Monopoly最终视差图;图4(e)是Monopoly不进行弱纹理检测的视差图。
图5中,图5(a)是Plastic原图像左图;图5(b)是Plastic真实视差图;图5(c)是Plastic弱纹理检测结果;图5(d)是Plastic最终视差图;图5(e)是Plastic不进行弱纹理检测的视差图。
从视觉效果上对图2(a)~图2(e),图3(a)~图3(e),图4(a)~图4(e),图5(a)~图5(e)中的视差图进行主观评价。图2~图5的(c)中黑色部分表示检测出的弱纹理区域,白色部分表示纹理区域。对照视差图,可以看出在弱纹理区域,应用本实施方式算法得到的视差图结果要比不进行弱纹理检测的算法视差图效果要好得多。
从客观评价指标上对本发明方法进行评价。
表1给出了应用两种算法处理middlebury图像集4幅弱纹理区域明显的图像对的错误匹配率。
表1
由表1可以看出,在两种算法处理立体匹配图像对的测试结果中,应用本实施方式算法处理的图像对比不进行弱纹理检测与分割的算法错误匹配率降低了5%。说明本实施方式算法可以在保证纹理区域匹配正确率的前提下,提高弱纹理区域匹配正确率,获得更好的视差图。
具体实施例二
所述的一种基于弱纹理检测的跨尺度代价聚合立体匹配方法,所述步骤a中对图片进行弱纹理检测和分割具体为:
计算左图像坐标为(x,y)处像素点的梯度值为g(x,y),并与梯度阈值gT比较,判断是否为弱纹理区域,其计算公式为:
g(x,y)<gT
式中:N(x,y)表示以像素(x,y)为中心的窗口,M表示窗口中像素的个数,I(x,y)表示像素的灰度值。
所述的一种基于弱纹理检测的跨尺度代价聚合立体匹配方法,所述步骤b中计算匹配代价具体为:
计算立体彩色图像对左图像IL和右图像IR的匹配代价C(p,d),其计算公式为:
C(p,d)=(1-α)·CAD(p,d)+α·(Cgrad_x(p,d)+Cgrad_y(p,d))
式中:p是左图像中一点,式中i=R,G,B分别代表彩色图像的三个通道,TAD和Tgrad分别代表颜色和梯度的截断阈值;分别表示图片在x、y方向的梯度算子;α是颜色差和梯度差之间的平衡因子。
所述的一种基于弱纹理检测的跨尺度代价聚合立体匹配方法,所述步骤c中代价聚合具体为:
其中,表示聚合后的匹配代价,z为期望的优化目标值,W是高斯滤波核,N是像素p的邻域窗口,q是p的邻域像素点;s∈{0,1,...,S}为尺度参数,s=0时,C0代表图像原始尺度匹配代价;代表图像的S+1个尺度的聚合代价;
式中,λ为正则化因子,用表示公式(11)的优化目标函数,令有:
其中,Thigh和Tlow分别代表前文中检测出来的纹理区域和弱纹理区域;C1和C1/2分别代表原图像尺度和二分之一尺度的匹配代价,用不同大小的窗口进行高斯滤波,融合后得到最终的匹配代价。
所述的一种基于弱纹理检测的跨尺度代价聚合立体匹配方法,所述步骤e中视差精化具体为:
|D'L(P)-D'R(P-D'R(P))|<δ
DLRC(P)=min(D'(PL),D'(PR))
其中,视差图中的一点p的左图视差值D'L(p)和右图视差值D'R(p-D'L(p)),δ为LRC的阈值;D′(PL)为左侧的第一个非遮挡点的视差值,D′(PR)为右侧的第一个非遮挡点的视差值;WBpq(IL)为左图像的函数,Δcpq和Δspq分别为左图像中点p与q的色彩差异和空间欧式距离,和分别为色彩差异和距离差异的调节参数;Dw(p)滤波后的图像。
Claims (5)
1.一种基于弱纹理检测的跨尺度代价聚合立体匹配方法,其征在于,包括以下步骤:
步骤a、输入两幅彩色图像,所述的两幅彩色图像分别为左图像和右图像,利用左图像的梯度信息对图片进行弱纹理检测和分割;
步骤b、根据左图像和右图像的颜色信息和梯度信息计算匹配代价;
步骤c、以步骤a中的弱纹理检测和分割结果为基准,进行基于高斯滤波的内尺度和跨尺度代价聚合;
步骤d、采用嬴者全取策略计算视差;
步骤e、采用左右一致性检测和基于自适应权重的方法对视差精化,输出视差图像。
2.根据权利要求1所述的一种基于弱纹理检测的跨尺度代价聚合立体匹配方法,其特征在于,所述步骤a中对图片进行弱纹理检测和分割具体为:
计算左图像坐标为(x,y)处像素点的梯度值为g(x,y),并与梯度阈值gT比较,判断是否为弱纹理区域,其计算公式为:
g(x,y)<gT
<mrow>
<mi>g</mi>
<mrow>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mfrac>
<mn>1</mn>
<mi>M</mi>
</mfrac>
<mo>&CenterDot;</mo>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mo>(</mo>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>)</mo>
<mo>&Element;</mo>
<mi>N</mi>
<mo>(</mo>
<mi>x</mi>
<mo>,</mo>
<mi>y</mi>
<mo>)</mo>
</mrow>
</munder>
<mrow>
<mo>(</mo>
<mo>|</mo>
<mi>I</mi>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
<mo>)</mo>
<mo>-</mo>
<mi>I</mi>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>+</mo>
<mn>1</mn>
<mo>,</mo>
<mi>v</mi>
</mrow>
<mo>)</mo>
<mo>+</mo>
<mo>|</mo>
<mi>I</mi>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
</mrow>
<mo>)</mo>
<mo>-</mo>
<mi>I</mi>
<mo>(</mo>
<mrow>
<mi>u</mi>
<mo>,</mo>
<mi>v</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
<mo>)</mo>
<mo>|</mo>
<mo>)</mo>
</mrow>
</mrow>
式中:N(x,y)表示以像素(x,y)为中心的窗口,M表示窗口中像素的个数,I(x,y)表示像素的灰度值。
3.根据权利要求1所述的一种基于弱纹理检测的跨尺度代价聚合立体匹配方法,其特征在于,所述步骤b中计算匹配代价具体为:
计算立体彩色图像对左图像IL和右图像IR的匹配代价C(p,d),其计算公式为:
C(p,d)=(1-α)·CAD(p,d)+α·(Cgrad_x(p,d)+Cgrad_y(p,d))
<mrow>
<msub>
<mi>C</mi>
<mrow>
<mi>A</mi>
<mi>D</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>p</mi>
<mo>,</mo>
<mi>d</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<mi>m</mi>
<mi>i</mi>
<mi>n</mi>
<mrow>
<mo>(</mo>
<mfrac>
<mn>1</mn>
<mn>3</mn>
</mfrac>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mi>i</mi>
<mo>=</mo>
<mi>R</mi>
<mo>,</mo>
<mi>G</mi>
<mo>,</mo>
<mi>B</mi>
</mrow>
</munder>
<mo>|</mo>
<msubsup>
<mi>I</mi>
<mi>L</mi>
<mi>i</mi>
</msubsup>
<mo>(</mo>
<mi>p</mi>
<mo>)</mo>
<mo>-</mo>
<msubsup>
<mi>I</mi>
<mi>R</mi>
<mi>i</mi>
</msubsup>
<mo>(</mo>
<mrow>
<mi>p</mi>
<mo>,</mo>
<mi>d</mi>
</mrow>
<mo>)</mo>
<mo>|</mo>
<mo>,</mo>
<msub>
<mi>T</mi>
<mrow>
<mi>A</mi>
<mi>D</mi>
</mrow>
</msub>
<mo>)</mo>
</mrow>
</mrow>
Cgrad_x(p,d)=min(|▽xIL(p)-▽xIR(p,d)|,Tgrad)
Cgrad_y(p,d)=min(|▽yIL(p)-▽yIR(p,d)|,Tgrad)
式中:p是左图像中一点,式中i=R,G,B分别代表彩色图像的三个通道,TAD和Tgrad分别代表颜色和梯度的截断阈值;▽x、▽y分别表示图片在x、y方向的梯度算子;α是颜色差和梯度差之间的平衡因子。
4.根据权利要求1所述的一种基于弱纹理检测的跨尺度代价聚合立体匹配方法,其特征在于,所述步骤c中代价聚合具体为:
<mrow>
<mover>
<mi>C</mi>
<mo>~</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>p</mi>
<mo>,</mo>
<mi>d</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<munder>
<mi>argmin</mi>
<mi>z</mi>
</munder>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mi>q</mi>
<mo>&Element;</mo>
<mi>N</mi>
</mrow>
</munder>
<mi>W</mi>
<mrow>
<mo>(</mo>
<mi>p</mi>
<mo>,</mo>
<mi>q</mi>
<mo>)</mo>
</mrow>
<mo>|</mo>
<mo>|</mo>
<mi>z</mi>
<mo>-</mo>
<mi>C</mi>
<mrow>
<mo>(</mo>
<mi>q</mi>
<mo>,</mo>
<mi>d</mi>
<mo>)</mo>
</mrow>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
</mrow>
<mrow>
<mover>
<mi>C</mi>
<mo>~</mo>
</mover>
<mrow>
<mo>(</mo>
<mi>p</mi>
<mo>,</mo>
<mi>d</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<munder>
<mo>&Sigma;</mo>
<mrow>
<mi>q</mi>
<mo>&Element;</mo>
<mi>N</mi>
</mrow>
</munder>
<mi>W</mi>
<mrow>
<mo>(</mo>
<mi>p</mi>
<mo>,</mo>
<mi>q</mi>
<mo>)</mo>
</mrow>
<mo>&CenterDot;</mo>
<mi>C</mi>
<mrow>
<mo>(</mo>
<mi>q</mi>
<mo>,</mo>
<mi>d</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mover>
<mi>v</mi>
<mo>~</mo>
</mover>
<mo>=</mo>
<munder>
<mrow>
<mi>a</mi>
<mi>r</mi>
<mi>g</mi>
<mi>m</mi>
<mi>i</mi>
<mi>n</mi>
</mrow>
<msubsup>
<mrow>
<mo>{</mo>
<msup>
<mi>z</mi>
<mi>s</mi>
</msup>
<mo>}</mo>
</mrow>
<mrow>
<mi>s</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mi>S</mi>
</msubsup>
</munder>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>s</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mi>S</mi>
</munderover>
<munder>
<mo>&Sigma;</mo>
<mrow>
<msup>
<mi>q</mi>
<mi>s</mi>
</msup>
<mo>&Element;</mo>
<msub>
<mi>N</mi>
<mi>s</mi>
</msub>
</mrow>
</munder>
<mi>W</mi>
<mrow>
<mo>(</mo>
<msup>
<mi>p</mi>
<mi>s</mi>
</msup>
<mo>,</mo>
<msup>
<mi>q</mi>
<mi>s</mi>
</msup>
<mo>)</mo>
</mrow>
<mo>|</mo>
<mo>|</mo>
<msup>
<mi>z</mi>
<mi>s</mi>
</msup>
<mo>-</mo>
<msup>
<mi>C</mi>
<mi>s</mi>
</msup>
<mrow>
<mo>(</mo>
<msup>
<mi>q</mi>
<mi>s</mi>
</msup>
<mo>,</mo>
<msup>
<mi>d</mi>
<mi>s</mi>
</msup>
<mo>)</mo>
</mrow>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
</mrow>
其中,表示聚合后的匹配代价,z为期望的优化目标值,W是高斯滤波核,N是像素p的邻域窗口,q是p的邻域像素点;s∈{0,1,...,S}为尺度参数,s=0时,C0代表图像原始尺度匹配代价;代表图像的S+1个尺度的聚合代价;
<mrow>
<msup>
<mover>
<mi>C</mi>
<mo>~</mo>
</mover>
<mi>s</mi>
</msup>
<mrow>
<mo>(</mo>
<msup>
<mi>p</mi>
<mi>s</mi>
</msup>
<mo>,</mo>
<msup>
<mi>d</mi>
<mi>s</mi>
</msup>
<mo>)</mo>
</mrow>
<mo>=</mo>
<munder>
<mo>&Sigma;</mo>
<mrow>
<msup>
<mi>q</mi>
<mi>s</mi>
</msup>
<mo>&Element;</mo>
<msub>
<mi>N</mi>
<mi>s</mi>
</msub>
</mrow>
</munder>
<mi>W</mi>
<mrow>
<mo>(</mo>
<msup>
<mi>p</mi>
<mi>s</mi>
</msup>
<mo>,</mo>
<msup>
<mi>q</mi>
<mi>s</mi>
</msup>
<mo>)</mo>
</mrow>
<mo>&CenterDot;</mo>
<msup>
<mi>C</mi>
<mi>s</mi>
</msup>
<mrow>
<mo>(</mo>
<msup>
<mi>q</mi>
<mi>s</mi>
</msup>
<mo>,</mo>
<msup>
<mi>d</mi>
<mi>s</mi>
</msup>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<mover>
<mi>v</mi>
<mo>~</mo>
</mover>
<mo>=</mo>
<munder>
<mrow>
<mi>a</mi>
<mi>r</mi>
<mi>g</mi>
<mi>m</mi>
<mi>i</mi>
<mi>n</mi>
</mrow>
<msubsup>
<mrow>
<mo>{</mo>
<msup>
<mi>z</mi>
<mi>s</mi>
</msup>
<mo>}</mo>
</mrow>
<mrow>
<mi>s</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mi>S</mi>
</msubsup>
</munder>
<mrow>
<mo>(</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>s</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
<mi>S</mi>
</munderover>
<munder>
<mo>&Sigma;</mo>
<mrow>
<msup>
<mi>q</mi>
<mi>s</mi>
</msup>
<mo>&Element;</mo>
<msub>
<mi>N</mi>
<mi>s</mi>
</msub>
</mrow>
</munder>
<mi>W</mi>
<mo>(</mo>
<mrow>
<msup>
<mi>p</mi>
<mi>s</mi>
</msup>
<mo>,</mo>
<msup>
<mi>q</mi>
<mi>s</mi>
</msup>
</mrow>
<mo>)</mo>
<mo>|</mo>
<mo>|</mo>
<msup>
<mi>z</mi>
<mi>s</mi>
</msup>
<mo>-</mo>
<msup>
<mi>C</mi>
<mi>s</mi>
</msup>
<mo>(</mo>
<mrow>
<msup>
<mi>q</mi>
<mi>s</mi>
</msup>
<mo>,</mo>
<msup>
<mi>d</mi>
<mi>s</mi>
</msup>
</mrow>
<mo>)</mo>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
<mo>+</mo>
<mi>&lambda;</mi>
<mo>&CenterDot;</mo>
<munderover>
<mo>&Sigma;</mo>
<mrow>
<mi>s</mi>
<mo>=</mo>
<mn>1</mn>
</mrow>
<mi>S</mi>
</munderover>
<mo>|</mo>
<mo>|</mo>
<msup>
<mi>z</mi>
<mi>s</mi>
</msup>
<mo>-</mo>
<msup>
<mi>z</mi>
<mrow>
<mi>s</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msup>
<mo>|</mo>
<msup>
<mo>|</mo>
<mn>2</mn>
</msup>
<mo>)</mo>
</mrow>
</mrow>
式中,λ为正则化因子,用表示公式(11)的优化目标函数,令有:
<mfenced open = "{" close = "">
<mtable>
<mtr>
<mtd>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>+</mo>
<mi>&lambda;</mi>
<mo>)</mo>
<msup>
<mi>z</mi>
<mi>s</mi>
</msup>
<mo>-</mo>
<msup>
<mi>&lambda;z</mi>
<mrow>
<mi>s</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msup>
<mo>=</mo>
<msup>
<mover>
<mi>C</mi>
<mo>~</mo>
</mover>
<mi>s</mi>
</msup>
<mo>(</mo>
<msup>
<mi>p</mi>
<mi>s</mi>
</msup>
<mo>,</mo>
<msup>
<mi>d</mi>
<mi>s</mi>
</msup>
<mo>)</mo>
<mo>,</mo>
<mi>s</mi>
<mo>=</mo>
<mn>0</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>-</mo>
<msup>
<mi>&lambda;z</mi>
<mrow>
<mi>s</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msup>
<mo>+</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>+</mo>
<mn>2</mn>
<mi>&lambda;</mi>
<mo>)</mo>
</mrow>
<msup>
<mi>z</mi>
<mi>s</mi>
</msup>
<mo>-</mo>
<msup>
<mi>&lambda;z</mi>
<mrow>
<mi>s</mi>
<mo>+</mo>
<mn>1</mn>
</mrow>
</msup>
<mo>=</mo>
<msup>
<mover>
<mi>C</mi>
<mo>~</mo>
</mover>
<mi>s</mi>
</msup>
<mrow>
<mo>(</mo>
<msup>
<mi>p</mi>
<mi>s</mi>
</msup>
<mo>,</mo>
<msup>
<mi>d</mi>
<mi>s</mi>
</msup>
<mo>)</mo>
</mrow>
<mo>,</mo>
<mi>s</mi>
<mo>=</mo>
<mn>1</mn>
<mo>,</mo>
<mn>2</mn>
<mo>,</mo>
<mo>...</mo>
<mo>,</mo>
<mi>S</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>-</mo>
<msup>
<mi>&lambda;z</mi>
<mrow>
<mi>s</mi>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msup>
<mo>+</mo>
<mrow>
<mo>(</mo>
<mn>1</mn>
<mo>+</mo>
<mn>2</mn>
<mi>&lambda;</mi>
<mo>)</mo>
</mrow>
<msup>
<mi>z</mi>
<mi>s</mi>
</msup>
<mo>=</mo>
<msup>
<mover>
<mi>C</mi>
<mo>~</mo>
</mover>
<mi>s</mi>
</msup>
<mrow>
<mo>(</mo>
<msup>
<mi>p</mi>
<mi>s</mi>
</msup>
<mo>,</mo>
<msup>
<mi>d</mi>
<mi>s</mi>
</msup>
<mo>)</mo>
</mrow>
<mo>,</mo>
<mi>s</mi>
<mo>=</mo>
<mi>S</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
<mrow>
<mi>A</mi>
<mover>
<mi>v</mi>
<mo>^</mo>
</mover>
<mo>=</mo>
<mover>
<mi>v</mi>
<mo>~</mo>
</mover>
</mrow>
<mrow>
<mi>A</mi>
<mo>=</mo>
<mfenced open = "[" close = "]">
<mtable>
<mtr>
<mtd>
<mrow>
<mn>1</mn>
<mo>+</mo>
<mi>&lambda;</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mi>&lambda;</mi>
</mrow>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow>
<mo>-</mo>
<mi>&lambda;</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mn>1</mn>
<mo>+</mo>
<mn>2</mn>
<mi>&lambda;</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mi>&lambda;</mi>
</mrow>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mo>...</mo>
</mtd>
<mtd>
<mo>...</mo>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mo>...</mo>
</mtd>
<mtd>
<mo>...</mo>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mi>&lambda;</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mn>1</mn>
<mo>+</mo>
<mn>2</mn>
<mi>&lambda;</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mi>&lambda;</mi>
</mrow>
</mtd>
</mtr>
<mtr>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mrow></mrow>
</mtd>
<mtd>
<mrow>
<mo>-</mo>
<mi>&lambda;</mi>
</mrow>
</mtd>
<mtd>
<mrow>
<mn>1</mn>
<mo>+</mo>
<mi>&lambda;</mi>
</mrow>
</mtd>
</mtr>
</mtable>
</mfenced>
</mrow>
<mrow>
<mover>
<mi>v</mi>
<mo>^</mo>
</mover>
<mo>=</mo>
<msup>
<mi>A</mi>
<mrow>
<mo>-</mo>
<mn>1</mn>
</mrow>
</msup>
<mover>
<mi>v</mi>
<mo>~</mo>
</mover>
</mrow>
<mrow>
<msub>
<mover>
<mi>C</mi>
<mo>~</mo>
</mover>
<mrow>
<mi>f</mi>
<mi>i</mi>
<mi>n</mi>
<mi>a</mi>
<mi>l</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>p</mi>
<mo>,</mo>
<mi>d</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<msub>
<mi>T</mi>
<mrow>
<mi>h</mi>
<mi>i</mi>
<mi>g</mi>
<mi>h</mi>
</mrow>
</msub>
<mo>&CenterDot;</mo>
<munder>
<mi>&Sigma;</mi>
<mrow>
<mi>q</mi>
<mo>&Element;</mo>
<mi>N</mi>
</mrow>
</munder>
<msub>
<mi>W</mi>
<mn>1</mn>
</msub>
<mrow>
<mo>(</mo>
<mi>p</mi>
<mo>,</mo>
<mi>q</mi>
<mo>)</mo>
</mrow>
<msub>
<mi>C</mi>
<mn>1</mn>
</msub>
<mrow>
<mo>(</mo>
<mi>q</mi>
<mo>,</mo>
<mi>d</mi>
<mo>)</mo>
</mrow>
<mo>+</mo>
<msub>
<mi>T</mi>
<mrow>
<mi>l</mi>
<mi>o</mi>
<mi>w</mi>
</mrow>
</msub>
<mo>&CenterDot;</mo>
<munder>
<mi>&Sigma;</mi>
<mrow>
<mi>q</mi>
<mo>&Element;</mo>
<mi>N</mi>
</mrow>
</munder>
<msub>
<mi>W</mi>
<mn>2</mn>
</msub>
<mrow>
<mo>(</mo>
<mi>p</mi>
<mo>,</mo>
<mi>q</mi>
<mo>)</mo>
</mrow>
<msub>
<mi>C</mi>
<mrow>
<mn>1</mn>
<mo>/</mo>
<mn>2</mn>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>q</mi>
<mo>,</mo>
<mi>d</mi>
<mo>)</mo>
</mrow>
</mrow>
其中,Thigh和Tlow分别代表前文中检测出来的纹理区域和弱纹理区域;C1和C1/2分别代表原图像尺度和二分之一尺度的匹配代价,用不同大小的窗口进行高斯滤波,融合后得到最终的匹配代价。
5.根据权利要求1所述的一种基于弱纹理检测的跨尺度代价聚合立体匹配方法,其特征在于,所述步骤e中视差精化具体为:
|D'L(P)-D'R(P-D'R(P))|<δ
DLRC(P)=min(D'(PL),D'(PR))
<mrow>
<msub>
<mi>D</mi>
<mi>w</mi>
</msub>
<mrow>
<mo>(</mo>
<mi>p</mi>
<mo>)</mo>
</mrow>
<mo>=</mo>
<munder>
<mo>&Sigma;</mo>
<mi>q</mi>
</munder>
<msub>
<mi>WB</mi>
<mrow>
<mi>p</mi>
<mi>q</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<msub>
<mi>I</mi>
<mi>L</mi>
</msub>
<mo>)</mo>
</mrow>
<msub>
<mi>D</mi>
<mrow>
<mi>L</mi>
<mi>R</mi>
<mi>C</mi>
</mrow>
</msub>
<mrow>
<mo>(</mo>
<mi>q</mi>
<mo>)</mo>
</mrow>
</mrow>
<mrow>
<msub>
<mi>WB</mi>
<mrow>
<mi>p</mi>
<mi>q</mi>
</mrow>
</msub>
<mo>=</mo>
<mi>exp</mi>
<mrow>
<mo>(</mo>
<mo>-</mo>
<mfrac>
<mrow>
<msub>
<mi>&Delta;c</mi>
<mrow>
<mi>p</mi>
<mi>q</mi>
</mrow>
</msub>
</mrow>
<msubsup>
<mi>&sigma;</mi>
<mi>c</mi>
<mn>2</mn>
</msubsup>
</mfrac>
<mo>+</mo>
<mfrac>
<mrow>
<msub>
<mi>&Delta;s</mi>
<mrow>
<mi>p</mi>
<mi>q</mi>
</mrow>
</msub>
</mrow>
<msubsup>
<mi>&sigma;</mi>
<mi>s</mi>
<mn>2</mn>
</msubsup>
</mfrac>
<mo>)</mo>
</mrow>
</mrow>
其中,视差图中的一点p的左图视差值D'L(p)和右图视差值D'R(p-D'L(p)),δ为LRC的阈值;D′(PL)为左侧的第一个非遮挡点的视差值,D′(PR)为右侧的第一个非遮挡点的视差值;WBpq(IL)为左图像的函数,Δcpq和Δspq分别为左图像中点p与q的色彩差异和空间欧式距离,和分别为色彩差异和距离差异的调节参数;Dw(p)滤波后的图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710631310.7A CN107392950A (zh) | 2017-07-28 | 2017-07-28 | 一种基于弱纹理检测的跨尺度代价聚合立体匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710631310.7A CN107392950A (zh) | 2017-07-28 | 2017-07-28 | 一种基于弱纹理检测的跨尺度代价聚合立体匹配方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107392950A true CN107392950A (zh) | 2017-11-24 |
Family
ID=60342086
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710631310.7A Pending CN107392950A (zh) | 2017-07-28 | 2017-07-28 | 一种基于弱纹理检测的跨尺度代价聚合立体匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107392950A (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107945222A (zh) * | 2017-12-15 | 2018-04-20 | 东南大学 | 一种新型的立体匹配代价计算以及视差后处理方法 |
CN108181319A (zh) * | 2017-12-12 | 2018-06-19 | 陕西三星洁净工程有限公司 | 一种基于立体视觉的积尘检测装置及方法 |
CN108510529A (zh) * | 2018-03-14 | 2018-09-07 | 昆明理工大学 | 一种基于自适应权值的图割立体匹配方法 |
CN108596975A (zh) * | 2018-04-25 | 2018-09-28 | 华南理工大学 | 一种针对弱纹理区域的立体匹配算法 |
CN108682026A (zh) * | 2018-03-22 | 2018-10-19 | 辽宁工业大学 | 一种基于多匹配基元融合的双目视觉立体匹配方法 |
CN108765486A (zh) * | 2018-05-17 | 2018-11-06 | 长春理工大学 | 基于颜色内相关的立体匹配稀疏块聚合策略方法 |
CN109816782A (zh) * | 2019-02-03 | 2019-05-28 | 哈尔滨理工大学 | 一种基于双目视觉的室内场景三维重建方法 |
CN109887021A (zh) * | 2019-01-19 | 2019-06-14 | 天津大学 | 基于跨尺度的随机游走立体匹配方法 |
CN109961417A (zh) * | 2017-12-26 | 2019-07-02 | 广州极飞科技有限公司 | 图像处理方法、装置及移动装置控制方法 |
CN111191694A (zh) * | 2019-12-19 | 2020-05-22 | 浙江科技学院 | 图像立体匹配方法 |
CN111508013A (zh) * | 2020-04-21 | 2020-08-07 | 中国科学技术大学 | 立体匹配方法 |
CN112070694A (zh) * | 2020-09-03 | 2020-12-11 | 深兰人工智能芯片研究院(江苏)有限公司 | 双目立体视觉视差图后处理方法和装置 |
WO2021018093A1 (zh) * | 2019-07-31 | 2021-02-04 | 深圳市道通智能航空技术有限公司 | 立体匹配方法、图像处理芯片及移动载具 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105551035A (zh) * | 2015-12-09 | 2016-05-04 | 深圳市华和瑞智科技有限公司 | 一种基于弱边缘与纹理分类的立体视觉匹配方法 |
CN106340036A (zh) * | 2016-08-08 | 2017-01-18 | 东南大学 | 一种基于双目立体视觉的立体匹配方法 |
CN106530336A (zh) * | 2016-11-07 | 2017-03-22 | 湖南源信光电科技有限公司 | 基于色彩信息和图割理论的立体匹配算法 |
-
2017
- 2017-07-28 CN CN201710631310.7A patent/CN107392950A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105551035A (zh) * | 2015-12-09 | 2016-05-04 | 深圳市华和瑞智科技有限公司 | 一种基于弱边缘与纹理分类的立体视觉匹配方法 |
CN106340036A (zh) * | 2016-08-08 | 2017-01-18 | 东南大学 | 一种基于双目立体视觉的立体匹配方法 |
CN106530336A (zh) * | 2016-11-07 | 2017-03-22 | 湖南源信光电科技有限公司 | 基于色彩信息和图割理论的立体匹配算法 |
Non-Patent Citations (3)
Title |
---|
张华 等: ""基于跨尺度变窗口代价聚合的快速立体匹配"", 《计算机工程与应用》 * |
曹晓倩 等: "基于弱纹理检测及视差图融合的立体匹配", 《仪器仪表学报》 * |
林雪: "双目立体视觉中立体匹配技术研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108181319A (zh) * | 2017-12-12 | 2018-06-19 | 陕西三星洁净工程有限公司 | 一种基于立体视觉的积尘检测装置及方法 |
CN108181319B (zh) * | 2017-12-12 | 2020-09-11 | 陕西三星洁净工程有限公司 | 一种基于立体视觉的积尘检测装置及方法 |
CN107945222A (zh) * | 2017-12-15 | 2018-04-20 | 东南大学 | 一种新型的立体匹配代价计算以及视差后处理方法 |
CN109961417A (zh) * | 2017-12-26 | 2019-07-02 | 广州极飞科技有限公司 | 图像处理方法、装置及移动装置控制方法 |
CN108510529A (zh) * | 2018-03-14 | 2018-09-07 | 昆明理工大学 | 一种基于自适应权值的图割立体匹配方法 |
CN108682026A (zh) * | 2018-03-22 | 2018-10-19 | 辽宁工业大学 | 一种基于多匹配基元融合的双目视觉立体匹配方法 |
CN108682026B (zh) * | 2018-03-22 | 2021-08-06 | 江大白 | 一种基于多匹配基元融合的双目视觉立体匹配方法 |
CN108596975A (zh) * | 2018-04-25 | 2018-09-28 | 华南理工大学 | 一种针对弱纹理区域的立体匹配算法 |
CN108596975B (zh) * | 2018-04-25 | 2022-03-29 | 华南理工大学 | 一种针对弱纹理区域的立体匹配算法 |
CN108765486A (zh) * | 2018-05-17 | 2018-11-06 | 长春理工大学 | 基于颜色内相关的立体匹配稀疏块聚合策略方法 |
CN109887021A (zh) * | 2019-01-19 | 2019-06-14 | 天津大学 | 基于跨尺度的随机游走立体匹配方法 |
CN109887021B (zh) * | 2019-01-19 | 2023-06-06 | 天津大学 | 基于跨尺度的随机游走立体匹配方法 |
CN109816782A (zh) * | 2019-02-03 | 2019-05-28 | 哈尔滨理工大学 | 一种基于双目视觉的室内场景三维重建方法 |
WO2021018093A1 (zh) * | 2019-07-31 | 2021-02-04 | 深圳市道通智能航空技术有限公司 | 立体匹配方法、图像处理芯片及移动载具 |
CN111191694A (zh) * | 2019-12-19 | 2020-05-22 | 浙江科技学院 | 图像立体匹配方法 |
CN111508013A (zh) * | 2020-04-21 | 2020-08-07 | 中国科学技术大学 | 立体匹配方法 |
CN111508013B (zh) * | 2020-04-21 | 2022-09-06 | 中国科学技术大学 | 立体匹配方法 |
CN112070694A (zh) * | 2020-09-03 | 2020-12-11 | 深兰人工智能芯片研究院(江苏)有限公司 | 双目立体视觉视差图后处理方法和装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107392950A (zh) | 一种基于弱纹理检测的跨尺度代价聚合立体匹配方法 | |
CN108596975A (zh) | 一种针对弱纹理区域的立体匹配算法 | |
CN104680496B (zh) | 一种基于彩色图像分割的Kinect深度图修复方法 | |
CN110473217A (zh) | 一种基于Census变换的双目立体匹配方法 | |
CN105744256B (zh) | 基于图谱视觉显著的立体图像质量客观评价方法 | |
CN107578418A (zh) | 一种融合色彩和深度信息的室内场景轮廓检测方法 | |
CN110148181A (zh) | 一种通用双目立体匹配方法 | |
CN107578404A (zh) | 基于视觉显著特征提取的全参考立体图像质量客观评价方法 | |
CN107301642B (zh) | 一种基于双目视觉的全自动前景背景分隔方法 | |
CN106504276A (zh) | 非局部立体匹配算法的组合匹配代价算法和视差联合填充算法 | |
CN104240204B (zh) | 一种基于图像处理的太阳能硅片和电池片的计数方法 | |
CN107301664A (zh) | 基于相似性测度函数的改进局部立体匹配方法 | |
CN107578430A (zh) | 一种基于自适应权值和局部熵的立体匹配方法 | |
CN104376535A (zh) | 一种基于样本的快速图像修复方法 | |
CN106408513A (zh) | 深度图超分辨率重建方法 | |
CN103384343B (zh) | 一种填补图像空洞的方法及其装置 | |
CN102800111B (zh) | 基于颜色协调性的彩色融合图像颜色质量评价方法 | |
CN103325120A (zh) | 一种快速自适应支持权值双目视觉立体匹配方法 | |
CN106600632A (zh) | 一种改进匹配代价聚合的立体匹配算法 | |
CN107392929A (zh) | 一种基于人眼视觉模型的智能化目标检测及尺寸测量方法 | |
CN106530334B (zh) | 一种机载干涉合成孔径雷达复图像配准方法及复图像配准*** | |
CN104102928B (zh) | 一种基于纹理基元的遥感图像分类方法 | |
CN103177451A (zh) | 基于图像边缘的自适应窗口和权重的立体匹配算法 | |
CN103955945A (zh) | 基于双目视差和活动轮廓的自适应彩色图像分割方法 | |
CN107578399A (zh) | 基于边界特征分割的的全参考图像质量评价方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20171124 |