CN104616304A - 一种基于fpga的自适应支撑权重的立体匹配方法 - Google Patents
一种基于fpga的自适应支撑权重的立体匹配方法 Download PDFInfo
- Publication number
- CN104616304A CN104616304A CN201510072013.4A CN201510072013A CN104616304A CN 104616304 A CN104616304 A CN 104616304A CN 201510072013 A CN201510072013 A CN 201510072013A CN 104616304 A CN104616304 A CN 104616304A
- Authority
- CN
- China
- Prior art keywords
- point
- fpga
- value
- overbar
- window
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
Landscapes
- Image Processing (AREA)
Abstract
本发明提出了一种基于FPGA的自适应支撑权重的立体匹配方法。在FPGA中对左右图像建立局部立体匹配窗口;然后根据局部窗口内匹配点与局部窗口中心点间的灰度相似性和曼哈顿距离相似性,求取待匹配点的灰度相似性函数值和曼哈顿距离相似性函数值,从而得到局部窗口匹配点的权重代价关系值;最后根据所述局部匹配窗口的匹配代价权重关系值,计算出每个匹配点的代价聚合关系,然后利用胜者为王准则,求取每个像素点的视差结果。本发明提高了整体匹配效果,可以获得实时的稠密视差结果,具有较强的鲁棒性。
Description
技术领域
本发明属于双目立体视觉领域,具体涉及一种基于FPGA的自适应支撑权重的立体匹配方法。
背景技术
双目立体视觉是直接模拟人类双眼视觉的生理结构,它是三维场景下深度信息提取的重要技术手段,在机器人导航、无人机定位以及三维测量中具有广泛的运用,立体视觉中最关键和难点在于双目图像的立体匹配,匹配过程中由于需要进行大量数据的重复运算,因此在CPU上对双目图像进行立体匹配需要花费大量的运算时间,难以满足实时性的要求。例如,对于主频为1GHZ的CPU,利用区域立体匹配算法对两幅中型大小的图片进行稠密视差图计算,需要花费几秒的时间,这样低速率的处理结果极大的限制了立体视觉的发展,特别是一些需要得到实时匹配视差结果的实际运用场合。因此,近年来如何在保证匹配精度的条件下提高立体匹配算法的实时性,成为了人们研究的热点。
区域立体匹配算法包含全局区域立体匹配算法和局部区域立体匹配算法,全局区域立体匹配算法匹配准确度高,但计算复杂、运算量大,在提高实时性方面可以采用GPU来实现,但是GPU处理过程中功耗很大,因此限制器实际的运用场合。对应局部区域立体匹配算法,该方法是通过左右图像上的局部窗口的相似性关系来获得每个待匹配点的视差值,计算量小,且匹配过程中如果能够找到一个合适的匹配代价关系,也能获得一个较好的匹配结果,而FPGA作为一种可编程的逻辑门阵列,灵活性强,利用其内部的并行流水线技术可以实时的实现局部区域立体匹配算法。
目前,利用FPGA实现实时的局部区域立体匹配方法有Ambrosch K等人提出的基于FPGA实现的SAD立体匹配方法(详见文献Hardware implementation of an SAD basedstereo vision algorithm)、Chen L等人提出的基于FPGA实现的实时立体匹配方法(详见文献A Parallel reconfigurable architecture for real-time stereo vision)。该类方法能够实时的获得到实时的稠密视差结果,但匹配过程中的局部窗口为固定值,且对窗口内的匹配点在匹配过程中没有分配合适的权重信息,因此在深度不连续点处、低纹理处以及场景重复区域处容易匹配出错,匹配准确率不高。
发明内容
本发明的目的针对现有立体匹配方法在匹配准确率和实时性方面存在的不足,提出了一种基于FPGA的自适应支撑权重的立体匹配方法,该方法可以解决深度不连续点处、低纹理处以及场景重复区域处容易匹配出错的问题,从而可以提高整体的匹配效果,同时,该方法利用FPGA内部的并行流水线技术,可以在FPGA内进行并行的局部区域立体匹配,获得实时的稠密视差结果,具有较强的鲁棒性。
为了解决上述技术问题,本发明提供一种基于FPGA的自适应支撑权重的立体匹配方法,在FPGA中对左右图像建立一个m×n大小的局部立体匹配窗口,视频输入口的输入数据为预处理后的左右图像,像素点的时钟为左右图像每个像素点进入FPGA内部的***同步时钟,用先进先出缓存器对匹配点进行行缓存,用FPGA内部的D触发器对匹配点进行列缓存;然后根据局部窗口内匹配点与局部窗口中心点间的灰度相似性和曼哈顿距离相似性,求取待匹配点的灰度相似性函数值和曼哈顿距离相似性函数值,从而得到局部窗口匹配点的权重代价关系值w(p,q),权重代价关系值w(p,q)如式(1)所示,
w(p,q)=wdk·wRl (1)
式(1)中,wdk表示在FPGA内部通过查找表获得的像素点p和q的曼哈顿距离相似性函数值的对应值,Rl表示像素点p和q的灰度值在经过rank变换后的灰度相似性关系,wRl表示在FPGA内部通过查找表获得的像素点p和q的灰度相似性函数值的对应值;最后根据所述局部匹配窗口的匹配代价权重关系值,计算出每个匹配点的代价聚合关系,然后利用胜者为王准则,求取每个像素点的视差结果;所述每个匹配点的代价聚合关系如式(2)所示,
式(2)中,Np表示左图像的局部匹配窗口,表示右图像的局部匹配窗口,w(p,q)为左图像中匹配点q的权重关系值,为右图像中的匹配点的权重关系值,对于左右图像的局部窗口,p点和点对应,q点和点相对应,为匹配点经rank变换后的比较值,表达式如式(3)所示:
式(3)中,Rpq表示q点的rank变换值,表示点的rank变换值。
较佳地,选用高斯函数对视频图像进行预处理,滤除噪声。
本发明与现有技术相比,其显著优点在于,(1)本发明在硬件FPGA上对双目图像进行局部区域立体匹配,从而可以获得实时的稠密视差结果;(2)本发明利用局部窗口内匹配点与窗口中心点间的灰度相似性、曼哈顿距离相似性建立自适应权重关系,从而可以提高匹配过程中的准确率;(3)本发明在局部窗口的匹配过程中,用rank变换后的值替代原始的灰度相似性函数关系值,从而可以在FPGA内部建立一个固定的灰度查找表,有利于FPGA的实时性计算;(4)本发明在代价聚合过程中,将匹配点先经过rank变换后再进行视差值计算,从而消除光照和噪声对左右图像匹配结果的影响。
附图说明
图1是本发明方法流程图。
图2是本发明在FPGA中对左右图像建立m×n大小的局部区域立体匹配窗口。
图3是本发明在FPGA中对像素点进行rank变换的过程示意图。
图4是本发明在FPGA中建立的相似性函数查找表,其中(a)为曼哈顿距离相似性查找表,(b)为灰度相似性查找表。
图5是本发明在左右图像的局部窗口中对相应的匹配点进行代价聚合运算示意图,其中(a)为左图像窗口的示意图,(b)为右图像窗口的示意图。
图6是本发明代价聚合过程在FPGA中的实现示意图。
具体实施方式
结合图1,本发明基于FPGA的自适应支撑权重的立体匹配方法,步骤如下:
步骤1:利用标定好的左右摄像机获得极线矫正好的左右图像,将采集到的左右图像进行滤波处理去除噪声干扰,预处理后的左图像为Il(i,j)和右图像为Ir(i,j);
本发明选用高斯函数对图像进行滤波,从而有效的消除传感器所引入的高斯白噪声。滤波模板采用(2k+1)×(2k+1)维(其中k=1,2,3,...)的离散高斯卷积核,计算方式如公式(1)所示:
公式(1)中,(i,j)为图像像素点的坐标值,Il0(i,j)为输入的原始左图像,Ir0(i,j)为输入的原始右图像,(u,v)为离散高斯点坐标,G(u,v)为离散高斯核函数在(u,v)处的归一化值,σ为高斯函数尺度值。
步骤2:结合图2,在FPGA中对左右图像建立一个m×n大小的局部立体匹配窗口,视频输入口的输入数据为预处理后的左右图像,像素点的时钟为左右图像每个像素点进入FPGA内部的***同步时钟,FIFO为先进先出缓存器,对匹配点进行行缓存,列缓存通过FPGA内部的D触发器进行缓存,win为建立的局部窗口,由此在FPGA中可以得到一个并行的局部窗口,用于左右图像的局部区域立体匹配。
步骤3:根据局部窗口内匹配点与局部窗口中心点间的灰度相似性和曼哈顿距离相似性,求取待匹配点的灰度相似性函数值f(Δcpq)和曼哈顿距离相似性函数值f(Δdpq),从而得到局部窗口匹配点的权重代价关系值w(p,q),如下式(2)所示:
w(p,q)=f(Δcpq)·f(Δdpq) (2)
式(2)中,p和q分别为图像匹配窗口的中心像素点和窗口区域内的像素点,Δcpq表示p和q点的灰度相似性关系,Δdpq表示p和q点的曼哈顿距离相似性关系。其中Δcpq、Δdpq的关系如式(3)所示,f(Δcpq)、f(Δdpq)函数表达式关系如式(4)所示。
式(3)中,Ip表示p点的灰度值,Iq表示q点的灰度值,(xp,yp)表示p点的行列坐标值,(xq,yq)表示q点的行列坐标值,式(4)中exp表示指数函数,τc表示颜色相似性函数下的权重比例常数,τd表示曼哈顿距离相似性函数下的权重比例常数。
进一步,本发明中,为了使灰度相似性函数方便在FPGA中计算,对匹配点的灰度值先进行rank变换,然后利用新的灰度相似性关系Rpq代替原始的Δcpq,rank变换的表达式如下:
式(5)中τ1、τ2为rank变换的分类条件,计算过程中作为固定常数,Ip表示p点的灰度值,Iq表示q点的灰度值。
因此根据式(5)和图2中建立的局部窗口,结合图3,利用FPGA内部的减法器对窗口内匹配点与窗口中心点的灰度值相减并判断,从而在FPGA内部确定窗口内每个匹配点rank变换等级,由于局部窗口中每个点都是并行得到的,因此变换后的rank像素点也是以局部窗口的形式并行出现,从而不影响算法的实时性。
结合图4,根据新的灰度相似性函数值f(Rpq)和曼哈顿距离相似性函数值f(Δdpq)在FPGA中建立查找表,从而确定每个像素点的匹配代价关系权重值w(p,q),因此在FPGA中计算的局部窗口匹配点的权重w(p,q)表达式如式(6)所示:
w(p,q)=wdk·wRl (6)
图4中,Δdk表示p和q点的曼哈顿距离,wdk表示在FPGA内部通过查找表获得的f(Δdpq)对应值,Rl表示p和q点在rank变换后的灰度相似性关系,wRl表示在FPGA内部通过查找表获得的f(Rpq)对应值。
由于经过上述步骤变换后,对于大小一定的局部区域匹配窗口,其曼哈顿距离相似性函数值与rank变换后的灰度相似性函数值都是一定范围内的离散变换值,因此查找表的建立可以在FPGA中通过有限状态机来对数据进行映射,其中映射后的wdk、wRl数据都为整数,该数据在归一化后,并不会影响其匹配点权重的变换,如此有利于在FPGA中进行定点整数的计算。
步骤4:结合图5,根据局部匹配窗口的匹配代价权重关系值,计算出每个匹配点的代价聚合关系如式(7)所示,然后利用胜者为王(WTA)的准则,求取每个像素点的视差结果dq,如式(9)所示。
式(7)中,Np表示左图像的局部匹配窗口,表示右图像的局部匹配窗口,w(p,q)为左图像中匹配点q的权重关系值,为右图像中的匹配点的权重关系值,对于左右图像的局部窗口,p点和点对应,q点和点相对应,为匹配点rank变换后的比较值,表达式如式(8)所示:
式(8)中,Rpq表示q点的rank变换值,表示点的rank变换值。
式(9)中,Sd={dmin,dmin+1,...,dmax},dmin为最小视差值,dmax为最大视差值。
结合图6,根据FPGA在左右图像中建立起局部权重窗口和局部像素点窗口,根据式(7)进行运算,在FPGA内部,为了减少乘法器资源的使用,左右图像的权重关系值进行相乘的过程中,利用移位的操作代替乘法器的功能(即将数据拆成多个2的n次方形式进行求和),图6中的wl表示左图像的权重w(p,q),wr表示右图像中的权重w即为用移位操作计算出的左右图像的权重积,图6中em的值由式(8)确定,它的取值只能是‘1’或者‘0’,因此式(7)的代价聚合的过程中,在FPGA中,只需要将em的最低位与权重值w中的各位进行逻辑与(&)操作,因此根据式(7),对权重关系值归一化后即可得到代价聚合关系值
根据式(9),在FPGA中对每个匹配像素点并行的计算出(dmax-dmin+1)个匹配代价聚合值,并利用FPGA内部的比较器计算出代价聚合关系值最小的像素点所对应的偏移量,即为该点的视差值。
因此,本发明循环上述步骤1~步骤6,即可对双目视频流进行稠密视差图的计算。
为了本发明进一步通过仿真实验验证了本发明的有益效果,仿真实验是在Altera公司提供的CYCLONE III EP3C120F780C8 FPGA芯片上实现的,采用的局部匹配窗口的大小为11×11,采集到的双目视频流的帧频为60fps,图像大小分辨率为640×480,表1是本发明方法利用quartus2编译软件生成的硬件资源使用的报表,表2是本发明方法与现有的立体匹配算法的实时性能对比,帧频按60MHZ时钟归一化。实验表明本发明方法比Chen提出的方法搜索的视差范围更大,帧频也更高,能够获得一个实时、匹配准确率较高的稠密视差结果。
表1
表2
Claims (5)
1.一种基于FPGA的自适应支撑权重的立体匹配方法,其特征在于,在FPGA中对左右图像建立一个m×n大小的局部立体匹配窗口,视频输入口的输入数据为预处理后的左右图像,像素点的时钟为左右图像每个像素点进入FPGA内部的***同步时钟,用先进先出缓存器对匹配点进行行缓存,用FPGA内部的D触发器对匹配点进行列缓存。
2.如权利要求1所述基于FPGA的自适应支撑权重的立体匹配方法,其特征在于,根据局部窗口内匹配点与局部窗口中心点间的灰度相似性和曼哈顿距离相似性,求取待匹配点的灰度相似性函数值和曼哈顿距离相似性函数值,从而得到局部窗口匹配点的权重代价关系值w(p,q),权重代价关系值w(p,q)如式(1)所示,
w(p,q)=wdk·wRl (1)
式(1)中,wdk表示在FPGA内部通过查找表获得的像素点p和q的曼哈顿距离相似性函数值的对应值,Rl表示像素点p和q的灰度值在经过rank变换后的灰度相似性关系,wRl表示在FPGA内部通过查找表获得的像素点p和q的灰度相似性函数值的对应值。
3.如权利要求2所述基于FPGA的自适应支撑权重的立体匹配方法,其特征在于,根据所述局部匹配窗口的匹配代价权重关系值,计算出每个匹配点的代价聚合关系,然后利用胜者为王准则,求取每个像素点的视差结果。
4.如权利要求3所述基于FPGA的自适应支撑权重的立体匹配方法,其特征在于,
所述每个匹配点的代价聚合关系如式(2)所示,
式(2)中,Np表示左图像的局部匹配窗口,表示右图像的局部匹配窗口,w(p,q)为左图像中匹配点q的权重关系值,为右图像中的匹配点的权重关系值,对于左右图像的局部窗口,p点和点对应,q点和点相对应,为匹配点经rank变换后的比较值,表达式如式(3)所示:
式(3)中,Rpq表示q点的rank变换值,表示点的rank变换值。
5.如权利要求1所述基于FPGA的自适应支撑权重的立体匹配方法,其特征在于,选用高斯函数对视频图像进行预处理,滤除噪声。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510072013.4A CN104616304A (zh) | 2015-02-11 | 2015-02-11 | 一种基于fpga的自适应支撑权重的立体匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510072013.4A CN104616304A (zh) | 2015-02-11 | 2015-02-11 | 一种基于fpga的自适应支撑权重的立体匹配方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104616304A true CN104616304A (zh) | 2015-05-13 |
Family
ID=53150737
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510072013.4A Pending CN104616304A (zh) | 2015-02-11 | 2015-02-11 | 一种基于fpga的自适应支撑权重的立体匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104616304A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105807786A (zh) * | 2016-03-04 | 2016-07-27 | 深圳市道通智能航空技术有限公司 | 一种无人机自动避障的方法及*** |
CN108038874A (zh) * | 2017-12-01 | 2018-05-15 | 中国科学院自动化研究所 | 面向序列切片的扫描电镜图像实时配准装置及方法 |
WO2018086348A1 (zh) * | 2016-11-09 | 2018-05-17 | 人加智能机器人技术(北京)有限公司 | 双目立体视觉***及深度测量方法 |
CN111553296A (zh) * | 2020-04-30 | 2020-08-18 | 中山大学 | 一种基于fpga实现的二值神经网络立体视觉匹配方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101557534A (zh) * | 2009-05-19 | 2009-10-14 | 无锡景象数字技术有限公司 | 一种从视频相近帧中生成视差图的方法 |
CN103778632A (zh) * | 2014-01-18 | 2014-05-07 | 南京理工大学 | 一种基于fpga的立体匹配方法 |
US20140177927A1 (en) * | 2012-12-26 | 2014-06-26 | Himax Technologies Limited | System of image stereo matching |
CN103985128A (zh) * | 2014-05-23 | 2014-08-13 | 南京理工大学 | 一种基于颜色内相关和自适应支撑权重的立体匹配方法 |
CN104123727A (zh) * | 2014-07-26 | 2014-10-29 | 福州大学 | 一种基于自适应高斯加权的立体匹配方法 |
-
2015
- 2015-02-11 CN CN201510072013.4A patent/CN104616304A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101557534A (zh) * | 2009-05-19 | 2009-10-14 | 无锡景象数字技术有限公司 | 一种从视频相近帧中生成视差图的方法 |
US20140177927A1 (en) * | 2012-12-26 | 2014-06-26 | Himax Technologies Limited | System of image stereo matching |
CN103778632A (zh) * | 2014-01-18 | 2014-05-07 | 南京理工大学 | 一种基于fpga的立体匹配方法 |
CN103985128A (zh) * | 2014-05-23 | 2014-08-13 | 南京理工大学 | 一种基于颜色内相关和自适应支撑权重的立体匹配方法 |
CN104123727A (zh) * | 2014-07-26 | 2014-10-29 | 福州大学 | 一种基于自适应高斯加权的立体匹配方法 |
Non-Patent Citations (2)
Title |
---|
C. TTOFIS ET AL: "Towards accurate hardware stereo correspondence a real-time FPGA implementation of a segmentation-based adaptive support weight algorithm", 《PROCESSING OF THE CONFERENCE ON DESIGN,AUTOMATIC AND TEST IN EUROPE》 * |
龚文彪等: "基于颜色内相关和自适应支撑权重的立体匹配算法", 《中国激光》 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105807786A (zh) * | 2016-03-04 | 2016-07-27 | 深圳市道通智能航空技术有限公司 | 一种无人机自动避障的方法及*** |
WO2018086348A1 (zh) * | 2016-11-09 | 2018-05-17 | 人加智能机器人技术(北京)有限公司 | 双目立体视觉***及深度测量方法 |
CN108038874A (zh) * | 2017-12-01 | 2018-05-15 | 中国科学院自动化研究所 | 面向序列切片的扫描电镜图像实时配准装置及方法 |
CN111553296A (zh) * | 2020-04-30 | 2020-08-18 | 中山大学 | 一种基于fpga实现的二值神经网络立体视觉匹配方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11238602B2 (en) | Method for estimating high-quality depth maps based on depth prediction and enhancement subnetworks | |
KR102319177B1 (ko) | 이미지 내의 객체 자세를 결정하는 방법 및 장치, 장비, 및 저장 매체 | |
CN107220997B (zh) | 一种立体匹配方法及*** | |
Lu et al. | A resource-efficient pipelined architecture for real-time semi-global stereo matching | |
CN105761233A (zh) | 一种基于fpga的实时全景图像拼接方法 | |
CN110060286B (zh) | 一种单目深度估计方法 | |
Chen et al. | StereoEngine: An FPGA-based accelerator for real-time high-quality stereo estimation with binary neural network | |
CN103136750A (zh) | 双目视觉***的立体匹配优化方法 | |
CN104616304A (zh) | 一种基于fpga的自适应支撑权重的立体匹配方法 | |
CN111046767A (zh) | 一种基于单目图像的3d目标检测方法 | |
CN108460794B (zh) | 一种双目立体红外显著目标检测方法及*** | |
Ding et al. | Real-time stereo vision system using adaptive weight cost aggregation approach | |
CN111583313A (zh) | 一种基于PSMNet改进的双目立体匹配方法 | |
CN103985128A (zh) | 一种基于颜色内相关和自适应支撑权重的立体匹配方法 | |
CN105654493A (zh) | 一种改进的光学仿射不变双目立体匹配代价与视差优化方法 | |
Min et al. | Dadu-eye: A 5.3 TOPS/W, 30 fps/1080p high accuracy stereo vision accelerator | |
CN111462211A (zh) | 一种基于卷积神经网络的双目视差计算方法 | |
Vázquez‐Delgado et al. | Real‐time multi‐window stereo matching algorithm with fuzzy logic | |
CN214587004U (zh) | 一种立体匹配加速电路、图像处理器及三维成像电子设备 | |
Liang et al. | Real-time hardware accelerator for single image haze removal using dark channel prior and guided filter | |
WO2022120988A1 (zh) | 基于混合2d卷积和伪3d卷积的立体匹配方法 | |
CN117745944A (zh) | 预训练模型确定方法、装置、设备以及存储介质 | |
Isakova et al. | FPGA design and implementation of a real-time stereo vision system | |
CN117152580A (zh) | 双目立体视觉匹配网络构建方法及双目立体视觉匹配方法 | |
Li et al. | Graph-based saliency fusion with superpixel-level belief propagation for 3D fixation prediction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20150513 |