CN102136136A - 基于自适应Census变换的光度不敏感立体匹配方法 - Google Patents
基于自适应Census变换的光度不敏感立体匹配方法 Download PDFInfo
- Publication number
- CN102136136A CN102136136A CN 201110065196 CN201110065196A CN102136136A CN 102136136 A CN102136136 A CN 102136136A CN 201110065196 CN201110065196 CN 201110065196 CN 201110065196 A CN201110065196 A CN 201110065196A CN 102136136 A CN102136136 A CN 102136136A
- Authority
- CN
- China
- Prior art keywords
- parallax
- self
- census
- pixel
- luminosity
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 40
- 238000006243 chemical reaction Methods 0.000 title claims abstract description 27
- 238000005457 optimization Methods 0.000 claims abstract description 12
- 230000003044 adaptive effect Effects 0.000 claims description 25
- 230000008878 coupling Effects 0.000 claims description 22
- 238000010168 coupling process Methods 0.000 claims description 22
- 238000005859 coupling reaction Methods 0.000 claims description 22
- 239000007787 solid Substances 0.000 claims description 17
- 238000013507 mapping Methods 0.000 claims description 12
- 238000004364 calculation method Methods 0.000 claims description 4
- 230000008859 change Effects 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000005303 weighing Methods 0.000 claims description 3
- 238000002360 preparation method Methods 0.000 claims description 2
- 230000008569 process Effects 0.000 abstract description 9
- 238000010586 diagram Methods 0.000 abstract description 5
- 238000005286 illumination Methods 0.000 abstract description 5
- 230000000007 visual effect Effects 0.000 abstract description 2
- 238000002474 experimental method Methods 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000006116 polymerization reaction Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000013011 mating Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于自适应Census变换的光度不敏感立体匹配方法,首先,根据图像的结构和色彩信息确定一种基于十字骨架的自适应区域,以此获得任意形状和大小的Census变换窗口;其次,利用Census变换后的汉明距作为匹配代价,采用局部优化方法计算初始视差;最后,提出一种基于视差统计直方图和左右一致性校验的两步提精方法,将基于十字骨架的自适应区域有机的融入提精过程,获得高精度的视差图。本发明可以对存在光照强度和曝光时间差异的立体图像对获得高精度的视差图,兼顾匹配精度和对幅度失真的鲁棒性,能够更好的适应无人机视觉导航的应用场景。
Description
技术领域
本发明涉及立体视觉***中的立体匹配方法,属于计算机视觉领域,用于在左右视图存在光照和曝光差异的条件下,获得高精度的稠密视差信息,从而为基于立体视觉的三维深度信息恢复提供可靠保证。
背景技术
立体匹配是计算机视觉领域中的一个重要任务,它通过双目或多目图像匹配得到稠密视差图,从而感知场景中的三维深度信息。国内外许多学者对这个领域进行了深入研究。当前的稠密立体匹配算法可以划分为匹配代价的计算、匹配代价的累积、视差的计算/优化、视差提精四个步骤来分析研究。这四个步骤中,匹配代价的计算作为立体匹配的基础,其重要程度不言而喻,只有选择合适的匹配代价才能获得高精度的视差图,常见的匹配代价可以分为两类:
第一类匹配代价是基于亮度/色彩一致性的假设,即场景中的特征在不同图像中具有相同的亮度/色彩信息,如灰度差的绝对值、灰度差的平方、截断的灰度差绝对值等都是基于该假设。
然而,由于图像间存在全局亮度变化、局部亮度变化以及噪声等因素的影响,导致对应特征的亮度/色彩信息不相同,该现象称之为幅度失真。尽管基于亮度/色彩一致性的匹配算法对于满足该假设的图像能够获得高精度的视差图,但对于幅度失真却相当敏感。
另一类匹配代价通过松弛或放弃亮度/色彩一致性的假设来达到对幅度失真不敏感的目的,如归一化互相关、Rank和Census非参数变化、互信息和拉普拉斯高斯和中值滤波等。研究表明Census非参数变换在各种幅度失真的条件下都具有很好的鲁棒性。但是,传统基于固定窗口的Census变换,存在窗口大小的选择问题。若变换窗口太小,则信噪比过低,导致匹配代价区分度低,容易对低纹理区域造成误匹配;若变换窗口过大,则会引入过多的离群值(Outlier),影响匹配精度。
此外,研究也表明通过全局方法优化基于Census变换的匹配代价,将导致高昂的计算代价;利用基于固定支持窗口的局部方法优化基于Census变换的匹配代价,将难以得到高精度的视差图像,使得视差不连续区域存在明显的前景放大现象。
发明内容
本发明所要解决的技术问题是提供一种立体匹配方法,在左右视图存在光照和曝光差异的条件下得到高精度的视差图像。
为解决上述技术问题,本发明是采取以下的技术方案来实现的:
一种基于自适应Census变换的光度不敏感立体匹配方法,其特征在于包括以下步骤:
(1)确定基于十字骨架的自适应区域,以此获得任意形状和大小的Census变换窗口;
(2)利用Census变换后的汉明距作为匹配代价,采用局部优化方法(Winner-Take-all)计算初始视差;
(3)获得初始视差后,利用视差两步提精的方法进一步提高视差精度。
前述基于自适应Census变换的光度不敏感立体匹配方法,其特征在于将立体匹配过程中的匹配代价计算和匹配代价聚合有机的融合。
前述基于自适应Census变换的光度不敏感立体匹配方法,其特征在于所述的任意形状和大小的Census变换窗口的获得方法包括如下步骤:
(1)根据图像的结构和色彩信息分别构建参考图像和目标图像中各像素基于十字骨架的自适应区域;
(2)将待匹配点在参考图像中的自适应区域、对应点在目标图像中的自适应区域通过逻辑与运算获得Census变换窗口。
前述基于自适应Census变换的光度不敏感立体匹配方法,其特征在于所述的基于十字骨架的自适应区域的具体算法是:
(1)对图像中任意一个像素p确定一个十字形状的骨架,该骨架包括了水平和垂直两个方向,分别用H(p)和V(p)表示,骨架的四个方向的长度可表示为(hp -,hp +,vp -,vp +),像素p基于十字骨架的自适应区域可以表示为:
(2)根据图像中相似色彩对应相同结构的假设,采用下式:
分别确定中心像素p十字骨架四个方向的长度(hp -,hp +,vp -,vp +),式(2)中,δ是一个指示函数,用来衡量不同像素间的色彩差异程度,pi为p某十字方向上的一个像素,p在图像中的坐标表示为(xp,yp),r*为某十字方向的臂长,L为沿着p某十字方向的搜索范围,当pi在p的水平左侧,则pi在图像中的坐标可以表示为(xp-i,yp),L为沿着像素p水平左侧方向的搜索范围,则r*的计算结果为hp -,同理确定其它三个方向的长度hp +,vp -,vp +。
前述基于自适应Census变换的光度不敏感立体匹配方法,其特征在于所述的基于视差统计直方图和左右一致性校验的两步提精方法包括如下步骤:
(1)根据视差在相似色彩区域内平滑变化的假设,在能够反映图像结构和色彩信息的自适应区域内对初始视差进行基于统计直方图的第一步提精;
(2)为了排除不可信视差,对第一步提精后的左右视差图进行左右一致性校验,建立视差置信矩阵,随后在自适应区域内对可信视差采用基于视差统计直方图的优化,排除遮挡区域和不可信视差对统计结果的影响。
前述基于自适应Census变换的光度不敏感立体匹配方法,其特征在于所述的视差统计直方图优化具体实施方法为:对于任意一个待匹配像素,统计在其基于十字骨架的自适应区域内不同视差的出现频次,选择具有最大出现概率的视差值作为优化结果。
至此,基于自适应Census变换的光度不敏感立体匹配方法执行完毕。
本发明专利的有益效果是:本发明不仅保留了Census变换对于幅度失真的鲁棒性,而且在未采用全局优化的前提下,解决了现有立体匹配方法难以在左右视图存在曝光和光照差异的前提下获得高精度的视差图的问题,能够更好的适应基于立体视觉的真实导航场景。
附图说明
图1为本发明的算法流程图;
图2为基于十字骨架的自适应区域的原理图;
图3为视差第二步提精流程图。
具体实施方式
下面结合附图和实例对本发明专利进一步说明。
如图1所示,一种基于色彩分割和自适应窗口的快速立体匹配方法包括以下步骤:
第一步:确定一种基于十字骨架的自适应区域,以此获得任意形状和大小的Census变换窗口。
1.如图2所示,首先确定参考图像和目标图像中每个像素基于十字骨架的自适应区域。对图像中任意一个像素p确定一个十字形状的骨架,该骨架包括了水平和垂直两个方向,分别用H(p)和V(p)表示,像素p基于十字骨架的自适应区域可以表示为:
骨架的四个方向的长度可表示为(hp -,hp +,vp -,vp +);根据图像中相似色彩对应相同结构的假设,采用下式:
分别确定中心像素p十字骨架四个方向的长度(hp -,hp +,vp -,vp +),式(2)中,δ是一个指示函数,用来衡量不同像素间的色彩差异程度,pi为p某十字方向上的一个像素,p在图像中的坐标表示为(xp,yp),r*为某十字方向的臂长,L为沿着p某十字方向的搜索范围(实验中L=17),当pi在p的水平左侧,则pi在图像中的坐标可以表示为(xp-i,yp),L为沿着像素p水平左侧方向的搜索范围,则r*的计算结果为hp -,同理确定其它三个方向的长度hp +,vp -,vp +。
2.最后,确定任意像素的Census变换窗口。若Uref(m)和Utar(n)分别表示在视差假设d下对应点m,n基于十字骨架的自适应区域,则m,n在对应图像中的任意形状和大小的Census变换窗口可表示为Ud(m)和Ud(n):
Ud(m)={(x,y)|(x,y)∈Uref(m),(x-d,y)∈Utar(n)}(2)
Ud(n)={(x,y)|(x,y)∈Utar(n),(x+d,y)∈Uref(m)}(3)
由于m=(x,y),n=(x-d,y),所以Ud(m)和Ud(n)具有相同的形状和大小,并令N(m,n)表示其大小。
第二步:利用Census变换后的汉明距作为匹配代价,采用局部优化方法计算初始视差。这一过程将匹配代价计算和匹配代价累积两步骤进行了有机融合,是因为上一步已根据图像的结构和色彩信息选择了适当的Census变换窗口,该窗口对图像中低纹理区域、视差不连续区域等具有良好的自适应性;若进一步采用固定窗口对Census变换的匹配代价进行聚合,不仅会重新导致低纹理区域和视差不连续区域匹配的两难,还会增加相当的计算量。
第三步:获得初始视差后,提出一种视差两步提精的方法进一步提高视差精度。
1.在局部优化过程中,由于将匹配代价的计算和匹配代价的累积进行了有机融合,所以初始视差中会存在一定的噪声,而第二步提精过程中的左右一致性校验对噪声相当敏感。为此,根据视差在相似色彩区域内平滑变化的假设,采用能够反映图像结构和色彩信息的Uref对初始视差进行第一步提精。如图1所示,对参考图像中的任意像素m,建立一个初始视差的统计直方图统计Uref(m)内所有不同初始视差出现的频次,并选择的峰值作为第一步提精后的视差结果d1,可表示为:
d∈[dmin,dmax] (4)
2.为了进一步检测视差图像中的遮挡区域,排除不可信视差,按图3流程进行第二步提精,其中d1L和d1R分别表示以左图和右图为参考图像得到的第一步提精后的视差,Uleft和Uright分别表示左图和右图中各像素基于十字骨架的自适应区域。
首先,采用左右一致性校验检测d1L和d1R中视差的置信度,建立视差置信矩阵,若|d1L(x,y)-d1R(x+d1L(x,y),y)|<T(实验中,T为1个像素),则认为视差可信,反之则不可信;其次,选择d1L和d1R中的任意一个进一步处理(实验中,选择了d1L),处理方式仍是基于视差统计直方图,不过此时只统计Uleft内的可信视差,从而可以排除遮挡区域和不可信视差对于统计结果的影响,进一步提高视差精度。
综上所述,针对现有立体匹配算法难以在幅度失真的真实视觉导航场景下获得高精度视差,本发明提出了一种将匹配代价计算和匹配代价累积有机融合的基于自适应Census变换的局部匹配方法。实验结果表明,本算法对存在光照强度和曝光时间差异的左右视图能够获得更高精度的视差图,兼顾了匹配精度和对幅度失真的鲁棒性,能够更好的适应无人机视觉导航的应用场景。
上述具体实施方式不以任何形式限制本发明的技术方案,凡是采用等同替换或等效变换的方式所获得的技术方案均落在本发明的保护范围。
Claims (5)
1.一种基于自适应Census变换的光度不敏感立体匹配方法,其特征在于包括以下步骤:
(1)确定一种基于十字骨架的自适应区域,以此获得任意形状和大小的Census变换窗口;
(2)利用Census变换后的汉明距作为匹配代价,采用局部优化方法计算初始视差;
(3)获得初始视差后,利用视差两步提精的方法进一步提高视差精度。
2.根据权利要求1所述的基于自适应Census变换的光度不敏感立体匹配方法,其特征在于:所述的任意形状和大小的Census变换窗口的获得方法包括如下步骤:
(1)根据图像的结构和色彩信息分别构建参考图像和目标图像中各像素基于十字骨架的自适应区域;
(2)将待匹配点在参考图像中的自适应区域、对应点在目标图像中的自适应区域通过逻辑与运算获得Census变换窗口。
3.根据权利要求2所述的基于自适应Census变换的光度不敏感立体匹配方法,其特征在于:所述基于十字骨架的自适应区域的具体算法是:
(1)对图像中任意一个像素p确定一个十字形状的骨架,该骨架包括了水平和垂直两个方向,分别用H(p)和V(p)表示,骨架的四个方向的长度可表示为(hp -,hp +,vp -,vp +),像素p基于十字骨架的自适应区域可以表示为:
(2)根据图像中相似色彩对应相同结构的假设,采用下式:
分别确定中心像素p十字骨架四个方向的长度(hp -,hp +,vp -,vp +),式(2)中,δ是一个指示函数,用来衡量不同像素间的色彩差异程度,pi为p某十字方向上的一个像素,p在图像中的坐标表示为(xp,yp),r*为某十字方向的臂长,L为沿着p某十字方向的搜索范围,当pi在p的水平左侧,则pi在图像中的坐标可以表示为(xp-i,yp),L为沿着像素p水平左侧方向的搜索范围,则r*的计算结果为hp -,同理确定其它三个方向的长度hp +,vp -,vp +。
4.根据权利要求1所述的基于自适应Census变换的光度不敏感立体匹配方法,其特征在于:所述的基于视差统计直方图和左右一致性校验的两步提精方法包括如下步骤:
(1)根据视差在相似色彩区域内平滑变化的假设,在能够反映图像结构和色彩信息的自适应区域内对初始视差进行基于统计直方图的第一步提精;
(2)为了排除不可信视差,对第一步提精后的左右视差图进行左右一致性校验,建立视差置信矩阵,随后在自适应区域内对可信视差采用基于视差统计直方图的优化,排除遮挡区域和不可信视差对统计结果的影响。
5.根据权利要求4所述的基于自适应Census变换的光度不敏感立体匹配方法,其特征在于所述的视差统计直方图优化具体实施方法为:对于任意一个待匹配像素,统计在其基于十字骨架的自适应区域内不同视差的出现频次,选择具有最大出现概率的视差值作为优化结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110065196A CN102136136B (zh) | 2011-03-17 | 2011-03-17 | 基于自适应Census变换的光度不敏感立体匹配方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201110065196A CN102136136B (zh) | 2011-03-17 | 2011-03-17 | 基于自适应Census变换的光度不敏感立体匹配方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN102136136A true CN102136136A (zh) | 2011-07-27 |
CN102136136B CN102136136B (zh) | 2012-10-03 |
Family
ID=44295911
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201110065196A Expired - Fee Related CN102136136B (zh) | 2011-03-17 | 2011-03-17 | 基于自适应Census变换的光度不敏感立体匹配方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN102136136B (zh) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102368826A (zh) * | 2011-11-07 | 2012-03-07 | 天津大学 | 双视点视频到多视点视频的实时自适应生成方法 |
CN102447933A (zh) * | 2011-11-01 | 2012-05-09 | 浙江捷尚视觉科技有限公司 | 基于双目架构的深度信息获取方法 |
CN102930530A (zh) * | 2012-09-26 | 2013-02-13 | 苏州工业职业技术学院 | 一种双视点图像的立体匹配方法 |
CN103440653A (zh) * | 2013-08-27 | 2013-12-11 | 北京航空航天大学 | 双目视觉立体匹配方法 |
CN104427324A (zh) * | 2013-09-02 | 2015-03-18 | 联咏科技股份有限公司 | 视差计算方法及其立体匹配装置 |
CN104867135A (zh) * | 2015-05-04 | 2015-08-26 | 中国科学院上海微***与信息技术研究所 | 一种基于指导图像引导的高精度立体匹配方法 |
CN106131448A (zh) * | 2016-07-22 | 2016-11-16 | 石家庄爱赛科技有限公司 | 可自动调节成像亮度的三维立体视觉*** |
CN106355608A (zh) * | 2016-09-09 | 2017-01-25 | 南京信息工程大学 | 基于可变权重代价计算与S‑census变换的立体匹配方法 |
CN106651975A (zh) * | 2016-12-01 | 2017-05-10 | 大连理工大学 | 一种基于多编码的Census自适应变换算法 |
CN106846290A (zh) * | 2017-01-19 | 2017-06-13 | 西安电子科技大学 | 基于抗纹理十字和权值十字的立体视差优化方法 |
CN107240083A (zh) * | 2017-06-29 | 2017-10-10 | 海信集团有限公司 | 一种修补视差图中噪点的方法及装置 |
CN107330932A (zh) * | 2017-06-16 | 2017-11-07 | 海信集团有限公司 | 一种修补视差图中噪点的方法及装置 |
CN109003295A (zh) * | 2018-04-11 | 2018-12-14 | 中冶沈勘工程技术有限公司 | 一种无人机航空影像快速匹配方法 |
CN109724537A (zh) * | 2019-02-11 | 2019-05-07 | 吉林大学 | 一种双目三维成像方法及*** |
CN113808185A (zh) * | 2021-11-19 | 2021-12-17 | 北京的卢深视科技有限公司 | 图像深度恢复方法、电子设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100007720A1 (en) * | 2008-06-27 | 2010-01-14 | Beddhu Murali | Method for front matching stereo vision |
CN101841730A (zh) * | 2010-05-28 | 2010-09-22 | 浙江大学 | 一种基于fpga的实时立体视觉实现方法 |
-
2011
- 2011-03-17 CN CN201110065196A patent/CN102136136B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100007720A1 (en) * | 2008-06-27 | 2010-01-14 | Beddhu Murali | Method for front matching stereo vision |
CN101841730A (zh) * | 2010-05-28 | 2010-09-22 | 浙江大学 | 一种基于fpga的实时立体视觉实现方法 |
Non-Patent Citations (4)
Title |
---|
《Field-Programmable Custom Computing Machines,2007.FCCM 2007.15th Annual IEEE Symposium on》 20070425 Chris Murphy et al. Low-Cost Stereo Vision on an FPGA 全文 1-5 , * |
《IEEE Transactions on Pattern Analysis and Machine Intelligence》 19940930 Takeo Kanade et al. A Stereo Matching Algorithm with an Adaptive Window: Theory and Experiment 第496页第1段、图3 1 第16卷, 第9期 * |
《控制与决策》 20080715 白明 等 双目立体匹配算法的研究与进展 全文 1-5 第23卷, 第7期 * |
《电子与信息学报》 20110315 丁菁汀 等 基于FPGA的立体视觉匹配的高性能实现 第598页第2节 1 第33卷, 第3期 * |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102447933A (zh) * | 2011-11-01 | 2012-05-09 | 浙江捷尚视觉科技有限公司 | 基于双目架构的深度信息获取方法 |
CN102368826A (zh) * | 2011-11-07 | 2012-03-07 | 天津大学 | 双视点视频到多视点视频的实时自适应生成方法 |
CN102930530A (zh) * | 2012-09-26 | 2013-02-13 | 苏州工业职业技术学院 | 一种双视点图像的立体匹配方法 |
CN103440653A (zh) * | 2013-08-27 | 2013-12-11 | 北京航空航天大学 | 双目视觉立体匹配方法 |
CN104427324A (zh) * | 2013-09-02 | 2015-03-18 | 联咏科技股份有限公司 | 视差计算方法及其立体匹配装置 |
CN104867135B (zh) * | 2015-05-04 | 2017-08-25 | 中国科学院上海微***与信息技术研究所 | 一种基于指导图像引导的高精度立体匹配方法 |
CN104867135A (zh) * | 2015-05-04 | 2015-08-26 | 中国科学院上海微***与信息技术研究所 | 一种基于指导图像引导的高精度立体匹配方法 |
CN106131448B (zh) * | 2016-07-22 | 2019-05-10 | 石家庄爱赛科技有限公司 | 可自动调节成像亮度的三维立体视觉*** |
CN106131448A (zh) * | 2016-07-22 | 2016-11-16 | 石家庄爱赛科技有限公司 | 可自动调节成像亮度的三维立体视觉*** |
CN106355608B (zh) * | 2016-09-09 | 2019-03-26 | 南京信息工程大学 | 基于可变权重代价计算与S-census变换的立体匹配方法 |
CN106355608A (zh) * | 2016-09-09 | 2017-01-25 | 南京信息工程大学 | 基于可变权重代价计算与S‑census变换的立体匹配方法 |
CN106651975A (zh) * | 2016-12-01 | 2017-05-10 | 大连理工大学 | 一种基于多编码的Census自适应变换算法 |
CN106651975B (zh) * | 2016-12-01 | 2019-08-13 | 大连理工大学 | 一种基于多编码的Census自适应变换方法 |
CN106846290A (zh) * | 2017-01-19 | 2017-06-13 | 西安电子科技大学 | 基于抗纹理十字和权值十字的立体视差优化方法 |
CN106846290B (zh) * | 2017-01-19 | 2019-10-11 | 西安电子科技大学 | 基于抗纹理十字和权值十字的立体视差优化方法 |
CN107330932A (zh) * | 2017-06-16 | 2017-11-07 | 海信集团有限公司 | 一种修补视差图中噪点的方法及装置 |
CN107240083A (zh) * | 2017-06-29 | 2017-10-10 | 海信集团有限公司 | 一种修补视差图中噪点的方法及装置 |
CN109003295A (zh) * | 2018-04-11 | 2018-12-14 | 中冶沈勘工程技术有限公司 | 一种无人机航空影像快速匹配方法 |
CN109003295B (zh) * | 2018-04-11 | 2021-07-23 | 中冶沈勘工程技术有限公司 | 一种无人机航空影像快速匹配方法 |
CN109724537A (zh) * | 2019-02-11 | 2019-05-07 | 吉林大学 | 一种双目三维成像方法及*** |
CN113808185A (zh) * | 2021-11-19 | 2021-12-17 | 北京的卢深视科技有限公司 | 图像深度恢复方法、电子设备及存储介质 |
CN113808185B (zh) * | 2021-11-19 | 2022-03-25 | 北京的卢深视科技有限公司 | 图像深度恢复方法、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN102136136B (zh) | 2012-10-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102136136B (zh) | 基于自适应Census变换的光度不敏感立体匹配方法 | |
CN102930530B (zh) | 一种双视点图像的立体匹配方法 | |
CN102903096B (zh) | 一种基于单目视频的对象深度提取方法 | |
CN102074014B (zh) | 一种利用基于图论的图像分割算法的立体匹配方法 | |
CN103248906B (zh) | 一种双目立体视频序列的深度图获取方法与*** | |
CN101933335A (zh) | 将二维图像数据转换为立体图像数据的方法和*** | |
CN101610425B (zh) | 一种评测立体图像质量的方法和装置 | |
CN103458261B (zh) | 一种基于立体视觉的视频场景变化检测方法 | |
CN103440653A (zh) | 双目视觉立体匹配方法 | |
CN103093479A (zh) | 一种基于双目视觉的目标定位方法 | |
CN103996201A (zh) | 一种基于改进梯度和自适应窗口的立体匹配方法 | |
CN102665086A (zh) | 利用基于区域的局部立体匹配获取视差的方法 | |
CN110688905A (zh) | 一种基于关键帧的三维物体检测与跟踪方法 | |
CN102036094B (zh) | 一种基于数字分数延时技术的立体匹配方法 | |
CN102098526A (zh) | 一种深度图求取方法及装置 | |
CN105277169A (zh) | 基于图像分割的双目测距方法 | |
CN103106651A (zh) | 一种基于三维hough变换的获取视差平面的方法 | |
CN103985128A (zh) | 一种基于颜色内相关和自适应支撑权重的立体匹配方法 | |
CN104639933A (zh) | 一种立体视图的深度图实时获取方法及*** | |
CN103269435A (zh) | 双目转多目虚拟视点合成方法 | |
CN102447917A (zh) | 立体图像匹配方法及其设备 | |
CN104200453A (zh) | 基于图像分割和可信度的视差图像校正方法 | |
CN113920183A (zh) | 基于单目视觉的车前障碍物测距方法 | |
CN105335934A (zh) | 视差图计算方法和装置 | |
CN101945299A (zh) | 一种基于拍摄设备阵列的动态场景深度恢复方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20121003 Termination date: 20150317 |
|
EXPY | Termination of patent right or utility model |