CN103955954B - 一种结合同场景立体图对的高分辨率深度图像重建方法 - Google Patents
一种结合同场景立体图对的高分辨率深度图像重建方法 Download PDFInfo
- Publication number
- CN103955954B CN103955954B CN201410161575.1A CN201410161575A CN103955954B CN 103955954 B CN103955954 B CN 103955954B CN 201410161575 A CN201410161575 A CN 201410161575A CN 103955954 B CN103955954 B CN 103955954B
- Authority
- CN
- China
- Prior art keywords
- image
- depth
- sigma
- current
- overbar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Processing (AREA)
Abstract
本发明涉及一种结合同场景立体图对的高分辨率深度图像重建方法。越来越多的应用依赖于对真实场景深度图像准确且快速的观测和分析。飞行时间深度相机可以实时的获取场景的深度图像,但是由于硬件条件的限制,采集的深度图像分辨率比较低,无法满足实际应用的需要。立体匹配算法是获得深度图像的经典方法,但是由于左右图像之间遮挡以及无纹理区域的影响,立体匹配算法在实际应用中存在很大的局限性。本发明方法充分发掘飞行时间深度相机和立体匹配算法各自的优点,提出了一种结合飞行时间深度相机和同场景立体图对的高分辨率深度图像重建方法,能很好的克服现有技术的不足,重建高分辨率高质量的深度图像。
Description
技术领域
本发明属于计算机视觉领域,具体涉及一种结合同场景立体图对的高分辨率深度图像重建方法。
背景技术
获取场景的深度图像是计算机视觉的重要任务。深度图像中的每一个像素值表示的是场景中的点与相机之间的距离。越来越多的应用如三维重建、碰撞检测、手势识别、机器人导航、工业自动化以及在电影和游戏中对虚拟场景的设计建模等,都依赖于对真实场景深度图像准确的观测和分析。目前,深度图像的获取手段主要有:1)通过立体匹配的方法计算得到深度图像;2)通过直接的测量仪器观测得到深度图像。
立体匹配算法计算左右图像之间各对应点的视差关系从而得到场景的深度图像,立体匹配算法是获得场景深度图像的一类经典方法。但是由于左右图像之间遮挡以及无纹理区域的影响,立体匹配算法在实际应用中存在很大的局限性。飞行时间深度相机是直接测量深度图像的主要设备,它通过给场景发送光脉冲,运用高速快门计算光脉冲的往返时间来确定场景中目标物的距离,飞行时间相机可以快速得到整幅场景的深度信息。但是,由于硬件的限制飞行时间相机得到的场景深度图分辨率比较低,很难满足实际应用的需要。
发明内容
本发明的目的就是克服现有技术的不足,提出了一种结合同场景立体图对的高分辨率深度图像重建方法。本方法结合飞行时间深度相机采集得到的低分辨率深度图像和同场景的高分辨率彩色立体图对来重建高分辨率高质量的深度图像。具体步骤是:
步骤(1)构造非局部滤波权值,对输入的低分辨率深度图像进行滤波:
G表示飞行时间深度相机采集得到的低分辨率深度图像,大小为n×m;L表示CCD左相机采集的同场景高分辨率彩色左图像,大小为rn×rm;R表示对应的CCD右相机采集的高分辨率彩色右图像,大小为rn×rm;
按如下方式构造非局部滤波权值:
其中I是输入的低分辨率深度图像进行双线性插值后的结果,大小为rn×rm;MiL表示以Li为中心的局部块,MiI表示以Ii为中心的局部块,K是局部块内含有的像素点个数,hL,hI是滤波器的参数,用来控制加权计算的指数表达式的衰减速度;
由上述计算得到非局部滤波权值,按下式对双线性插值结果I进行滤波:
得到的初始高分辨率深度图像记为F′,大小为rn×rm;
步骤(2)以左图像为参考图像,右图像为目标图像,结合初始高分辨率深度图像F′,构造局部立体匹配权值,计算左图像的视差图DL:
(a)结合F′按如下方式构造局部立体匹配权值:
其中j∈Ω(i)表示j在i的局部窗内,参数σc和σd用来控制指数表达式的衰减速度,按如下方式选取:
①计算L当前局部窗内其他点和中心点之间的颜色值差异以当前颜色差异的中值作为当前σc;
②计算F′当前局部窗内其他点和中心点之间的深度差异以当前深度差异的中值作为当前σd;
(b)按如下方式构造左图像L和右图像R之间的匹配代价函数:
其中匹配代价表示左图像中的点i视差为d时,i和右图像中的对应点之间的匹配度,j∈Ω(i)表示j在i的局部窗内,表示在的局部窗内,选取对应点之间的彩色和梯度差来定义匹配误差:
其中参数α用来平衡彩色和梯度误差,τ1,τ2为误差阈值;
(c)根据匹配代价函数,按如下的方式计算得到左图像内各点的视差:
其中Sd={dmin,...,dmax}表示视差范围;从而得到左图像的视差图像DL;
步骤(3)以右图像为参考图像,左图像为目标图像,计算右图像内各点的视差值,利用计算得到的右图像视差图DR对DL进行左右遮挡检测:
以右图像为参考图,左图像为目标图时,由于F′是与左图像配准的,以右图像为参考图时,无法利用F′来构造匹配权值,故以右图像为参考图时按如下方式构造局部匹配权值:
其中j∈Ω(i)表示j在i的局部窗内,参数σs和σc按如下方式选取:
①σs选为局部窗口的半径大小;
②计算R当前局部窗内其他点和中心点的颜色值差异以当前颜色差异的中值作为当前σc;
利用计算得到的局部匹配权值构造右图像R和左图像L之间的匹配代价函数,计算得到以右图像为参考图时的视差图,记为DR;
运用DR对DL进行左右遮挡检测,若视差点满足如下公式,则将该点标记为满足左右遮挡检测:
用集合S表示DL内所有满足左右遮挡检测的点;
步骤(4)结合滤波得到的深度图像F′和匹配得到视差图像DL融合得到最终的高分辨率深度图像:
(a)按如下方式将F′和DL进行融合:
其中b为左右相机之间基线距,f为CCD相机的焦距;
(b)构造局部滤波权值对融合得到的深度图像进行修正:
基于如下的两点观察:
①彩色图像中有相似颜色的两个区域,很有可能有相似的深度值;
②真实场景的表面基本都是分段光滑的;
将局部滤波权值分解为三个部分:颜色相似性、距离相似性和深度相似性,按如下方式构造局部滤波权值:
其中j∈Ω(i)表示j在i的局部窗内,参数σc,σs和σd按如下方式选取:
①σs选为局部窗口的半径大小;
②计算L当前局部窗内其他点和中心点的颜色值差异以当前颜色差异的中值作为当前σc;
③计算F当前局部窗内其他点和中心点的深度差异以当前深度差异的中值作为当前σd;
由上述计算得到局部滤波权值wij,按如下方式对融合结果F进行滤波:
从而得到最终的高分辨率深度图像,记为F*,大小为rn×rm。
本发明通过结合飞行时间深度相机采集得到的低分辨率深度图像和同场景高分辨率的左右彩色立体图对,可以重建得到高质量高分辨率的深度图像。
根据本发明的第一方面,公开了一种非局部权值滤波器的构造方法。
根据本发明的第二方面,公开了一种结合初始深度图像来构造局部立体匹配权值的方法。
根据本发明的第三方面,公开了一种将飞行时间深度相机采集得到的深度图像和立体匹配算法计算得到的视差图像进行融合的方法。
根据本发明的第四方面,公开了一种结合同场景立体图对的高分辨率深度图像重建方法的具体流程。主要包括:构造非局部滤波权值对飞行时间深度相机采集得到的深度图像进行滤波;构造局部立体匹配权值计算得到基于立体匹配算法的视差图像;最终融合得到高分辨率高质量的深度图像。
本发明的有益效果:本发明方法很好的结合立体匹配技术和飞行时间深度相机各自的优势,通过一种融合方法很好的克服了现有技术的不足,能够重建高质量高分辨率的深度图像。
具体实施步骤
步骤(1)构造非局部滤波权值,对输入的低分辨率深度图像进行滤波:
G表示飞行时间深度相机采集得到的低分辨率深度图像,大小为n×m;L表示CCD左相机采集的同场景高分辨率彩色左图像,大小为rn×rm;R表示对应的CCD右相机采集的高分辨率彩色右图像,大小为rn×rm;
按如下方式构造非局部滤波权值:
其中I是输入的低分辨率深度图像进行双线性插值后的结果,大小为rn×rm,MiL表示以Li为中心的局部块,MiI表示以Ii为中心的局部块,K是局部块内含有的像素点个数,局部块大小选为5×5;参数hL选为15,参数hI选为20;
根据按下式对双线性插值结果I进行滤波:
得到的初始高分辨率深度图像记为F′,大小为rn×rm;
步骤(2)以左图像为参考图像,右图像为目标图像,结合初始高分辨率深度图像F′,构造局部立体匹配权值,计算左图像的视差图DL:
(a)结合F′按如下方式构造局部立体匹配权值:
其中j∈Ω(i)表示j在i的局部窗内,局部窗大小选为9×9,参数σc和σd按如下方式选取:
①计算L当前局部窗内其他点和中心点之间的颜色值差异以当前颜色差异的中值作为当前σc;
②计算F′当前局部窗内其他点和中心点之间的深度差异以当前深度差异的中值作为当前σd;
(b)按如下方式构造左图像L和右图像R之间的匹配代价函数:
其中匹配代价表示左图像中的点i视差为d时,i和右图像中的对应点之间的匹配度,j∈Ω(i)表示j在i的局部窗内,表示在的局部窗内,选取对应点之间的彩色和梯度差来定义匹配误差:
其中参数α用来平衡彩色和梯度误差,选为0.2;τ1,τ2为误差阈值,分别选为7和2;
(c)根据匹配代价函数,按如下的方式计算得到左图像内各点的视差:
其中Sd={dmin,...,dmax}表示视差范围;从而得到左图像的视差图像DL;
步骤(3)以右图像为参考图像,左图像为目标图像,计算右图像的视差图DR,对DL进行左右遮挡检测:
以右图像为参考图,左图像为目标图时,由于F′是与左图像配准的,以右图像为参考图时,无法利用F′来构造匹配权值,故以右图像为参考图时按如下方式构造局部匹配权值:
其中j∈Ω(i)表示j在i的局部窗内,局部窗大小选为9×9,参数σs和σc按如下方式选取:
①σs大小选为4;
②计算R当前局部窗内其他点和中心点的颜色值差异以当前颜色差异的中值作为当前σc;
利用计算得到的局部立体匹配权值构造右图像R和左图像L之间的匹配代价函数,计算得到以右图像为参考图时的视差图,记为DR;
运用DR对DL进行左右遮挡检测,若视差点满足如下公式,则将该点标记为满足左右遮挡检测:
用集合S表示DL内所有满足左右遮挡检测的点;
步骤(4)结合滤波得到的深度图像F′和匹配得到视差图像DL融合得到最终的高分辨率深度图像:
(a)按如下方式将F′和DL进行融合:
其中b为左右相机之间基线距,f为CCD相机的焦距;
(b)构造局部滤波权值对融合得到的深度图像进行修正:
按如下方式构造局部滤波权值:
其中j∈Ω(i)表示j在i的局部窗内,局部窗大小选为9×9,参数σc,σs和σd按如下方式选取:
①σs大小选为4;
②计算L当前局部窗内其他点和中心点的颜色值差异以当前颜色差异的中值作为当前σc;
③计算F当前局部窗内其他点和中心点的深度差异以当前深度差异的中值作为当前σd;
由上述计算得到局部滤波权值wij,按如下方式对融合结果F进行滤波:
从而得到最终的高分辨率深度图像F*,大小为rn×rm。
Claims (1)
1.一种结合同场景立体图对的高分辨率深度图像重建方法,其特征在于该方法的具体步骤是:
步骤1、构造非局部滤波权值,对输入的低分辨率深度图像进行滤波:
G表示飞行时间深度相机采集得到的低分辨率深度图像,大小为n×m;L表示CCD左相机采集的同场景高分辨率彩色左图像,大小为rn×rm;R表示对应的CCD右相机采集的高分辨率彩色右图像,大小为rn×rm;
按如下方式构造非局部滤波权值:
其中I是输入的低分辨率深度图像进行双线性插值后的结果,大小为rn×rm;MiL表示以Li为中心的局部块,MiI表示以Ii为中心的局部块,K是局部块内含有的像素点个数,hL,hI是滤波器的参数,用来控制加权计算的指数表达式的衰减速度;
由上述计算得到非局部滤波权值按下式对双线性插值结果I进行滤波:
得到的初始高分辨率深度图像记为F′,大小为rn×rm;
步骤2、以左图像为参考图像,右图像为目标图像,结合初始高分辨率深度图像F′,构造局部立体匹配权值,计算左图像的视差图DL:
2-1.结合F′按如下方式构造局部立体匹配权值:
其中j∈Ω(i)表示像素点j在像素点i的局部窗内,参数σc和σd用来控制指数表达式的衰减速度,按如下方式选取:
①计算L当前局部窗内其他点和中心点之间的颜色值差异以当前颜色差异的中值作为当前σc;
②计算F′当前局部窗内其他点和中心点之间的深度差异以当前深度差异的中值作为当前σd;
2-2.按如下方式构造左图像L和右图像R之间的匹配代价函数:
其中匹配代价表示左图像中的像素点i视差为d时,i和右图像中的对应点之间的匹配度,表示在的局部窗内,选取对应点之间的彩色和梯度差来定义匹配误差:
其中参数α用来平衡彩色和梯度误差,τ1,τ2为误差阈值;
2-3.根据匹配代价函数,按如下的方式计算得到左图像内各点匹配代价达到最小的时候的视差d*:
其中Sd={dmin,...,dmax}表示视差范围;从而得到左图像的视差图像DL;
步骤3、以右图像为参考图像,左图像为目标图像,计算右图像内各点的视差值,利用计算得到的右图像视差图DR对DL进行左右遮挡检测:
以右图像为参考图,左图像为目标图时,由于F′是与左图像配准的,以右图像为参考图时,无法利用F′来构造匹配权值,故以右图像为参考图时按如下方式构造局部立体匹配权值:
其中j∈Ω(i)表示j在i的局部窗内,参数σs和σc按如下方式选取:
(1)σs选为局部窗口的半径大小;
(2)计算R当前局部窗内其他点和中心点的颜色值差异以当前颜色差异的中值作为当前σc;
利用计算得到的局部匹配权值构造右图像R和左图像L之间的匹配代价函数,计算得到以右图像为参考图时的视差图,记为DR;
运用DR对DL进行左右遮挡检测,若视差点满足如下公式,则将该视差点标记为满足左右遮挡检测:
用集合S表示DL内所有满足左右遮挡检测的点;
步骤4、结合滤波得到的深度图像F′和匹配得到视差图像DL融合得到最终的高分辨率深度图像:
4-1按如下方式将F′和DL进行融合:
其中b为左右相机之间基线距,f为CCD相机的焦距;
4-2构造局部滤波权值对融合得到的深度图像进行修正:
基于如下的两点观察:
a.彩色图像中有相似颜色的两个区域有相似的深度值;
b.真实场景的表面是分段光滑的;
将局部滤波权值分解为三个部分:颜色相似性、距离相似性和深度相似性,按如下方式构造局部滤波权值:
其中j∈Ω(i)表示j在i的局部窗内,参数σc,σs和σd按如下方式选取:
(a)σs选为局部窗口的半径大小;
(b)计算L当前局部窗内其他点和中心点的颜色值差异以当前颜色差异的中值作为当前σc;
(c)计算F当前局部窗内其他点和中心点的深度差异以当前深度差异的中值作为当前σd;
由上述计算得到局部滤波权值wij,按如下方式对融合结果F进行滤波:
从而得到最终的高分辨率深度图像F*,大小为rn×rm。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410161575.1A CN103955954B (zh) | 2014-04-21 | 2014-04-21 | 一种结合同场景立体图对的高分辨率深度图像重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410161575.1A CN103955954B (zh) | 2014-04-21 | 2014-04-21 | 一种结合同场景立体图对的高分辨率深度图像重建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103955954A CN103955954A (zh) | 2014-07-30 |
CN103955954B true CN103955954B (zh) | 2017-02-08 |
Family
ID=51333223
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410161575.1A Active CN103955954B (zh) | 2014-04-21 | 2014-04-21 | 一种结合同场景立体图对的高分辨率深度图像重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103955954B (zh) |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107534764B (zh) | 2015-04-30 | 2020-03-17 | 深圳市大疆创新科技有限公司 | 增强图像分辨率的***及方法 |
CN105184780B (zh) * | 2015-08-26 | 2018-06-05 | 京东方科技集团股份有限公司 | 一种立体视觉深度的预测方法和*** |
EP3185037B1 (en) * | 2015-12-23 | 2020-07-08 | STMicroelectronics (Research & Development) Limited | Depth imaging system |
CN105869167A (zh) * | 2016-03-30 | 2016-08-17 | 天津大学 | 基于主被动融合的高分辨率深度图获取方法 |
CN106408513B (zh) * | 2016-08-25 | 2019-10-18 | 天津大学 | 深度图超分辨率重建方法 |
GB2553782B (en) * | 2016-09-12 | 2021-10-20 | Niantic Inc | Predicting depth from image data using a statistical model |
CN106774309B (zh) * | 2016-12-01 | 2019-09-17 | 天津工业大学 | 一种移动机器人同时视觉伺服与自适应深度辨识方法 |
CN107749060A (zh) * | 2017-09-28 | 2018-03-02 | 深圳市纳研科技有限公司 | 机器视觉设备及基于飞行时间技术三维信息采集算法 |
CN108876836B (zh) * | 2018-03-29 | 2021-08-27 | 北京旷视科技有限公司 | 一种深度估计方法、装置、***及计算机可读存储介质 |
CN109061658B (zh) * | 2018-06-06 | 2022-06-21 | 天津大学 | 激光雷达数据融合方法 |
CN114519763A (zh) * | 2020-11-19 | 2022-05-20 | 中兴通讯股份有限公司 | 3d深度图构建方法、装置及ar眼镜 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101430796A (zh) * | 2007-11-06 | 2009-05-13 | 三星电子株式会社 | 图像产生方法和设备 |
CN102387374A (zh) * | 2010-08-30 | 2012-03-21 | 三星电子株式会社 | 用于获得高精度深度图的设备和方法 |
CN102867288A (zh) * | 2011-07-07 | 2013-01-09 | 三星电子株式会社 | 深度图像转换设备和方法 |
CN103167306A (zh) * | 2013-03-22 | 2013-06-19 | 上海大学 | 一种基于图像匹配的高分辨率深度图实时提取装置及方法 |
CN103337069A (zh) * | 2013-06-05 | 2013-10-02 | 余洪山 | 基于复合摄像机的高质量三维彩色图像获取方法及装置 |
CN103440664A (zh) * | 2013-09-05 | 2013-12-11 | Tcl集团股份有限公司 | 一种生成高分辨率深度图的方法、***及计算设备 |
-
2014
- 2014-04-21 CN CN201410161575.1A patent/CN103955954B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101430796A (zh) * | 2007-11-06 | 2009-05-13 | 三星电子株式会社 | 图像产生方法和设备 |
CN102387374A (zh) * | 2010-08-30 | 2012-03-21 | 三星电子株式会社 | 用于获得高精度深度图的设备和方法 |
CN102867288A (zh) * | 2011-07-07 | 2013-01-09 | 三星电子株式会社 | 深度图像转换设备和方法 |
CN103167306A (zh) * | 2013-03-22 | 2013-06-19 | 上海大学 | 一种基于图像匹配的高分辨率深度图实时提取装置及方法 |
CN103337069A (zh) * | 2013-06-05 | 2013-10-02 | 余洪山 | 基于复合摄像机的高质量三维彩色图像获取方法及装置 |
CN103440664A (zh) * | 2013-09-05 | 2013-12-11 | Tcl集团股份有限公司 | 一种生成高分辨率深度图的方法、***及计算设备 |
Non-Patent Citations (2)
Title |
---|
Generation of high-quality depth maps using hybrid camera system for 3-D video;Eun-Kyung Lee 等;《Journal of Visual Communication and Image Representation》;20110131;第22卷(第1期);第73-84页 * |
基于彩色图像局部结构特征的深度图超分辨率算法;杨宇翔 等;《模式识别与人工智能》;20130531;第26卷(第5期);第454-459页 * |
Also Published As
Publication number | Publication date |
---|---|
CN103955954A (zh) | 2014-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103955954B (zh) | 一种结合同场景立体图对的高分辨率深度图像重建方法 | |
CN104504671B (zh) | 一种用于立体显示的虚实融合图像生成方法 | |
TWI497980B (zh) | 處理3d立體影像的系統與方法 | |
CN104680496B (zh) | 一种基于彩色图像分割的Kinect深度图修复方法 | |
CN102867288B (zh) | 深度图像转换设备和方法 | |
CN103646396B (zh) | 双目立体匹配算法的匹配代价算法和非局部立体匹配算法 | |
CN111402311B (zh) | 一种基于知识蒸馏的轻量级立体视差估计方法 | |
CN106447661A (zh) | 一种深度图快速生成方法 | |
CN104869387A (zh) | 基于光流法的双目图像最大视差获取方法 | |
CN106600632A (zh) | 一种改进匹配代价聚合的立体匹配算法 | |
WO2014073670A1 (ja) | 画像処理方法及び画像処理装置 | |
CN106408513A (zh) | 深度图超分辨率重建方法 | |
CN111260707B (zh) | 一种基于光场epi图像的深度估计方法 | |
CN103426200A (zh) | 基于无人机航拍序列图像的树木三维重建方法 | |
CN104077808A (zh) | 一种用于计算机图形图像处理的、基于深度信息的实时三维人脸建模方法 | |
CN103955945A (zh) | 基于双目视差和活动轮廓的自适应彩色图像分割方法 | |
CN104599317A (zh) | 一种实现3d扫描建模功能的移动终端及方法 | |
CN105761270A (zh) | 一种基于外极线距离变换的树型滤波立体匹配方法 | |
CN103679680B (zh) | 立体匹配方法和*** | |
CN110021043A (zh) | 一种基于立体匹配和置信度传播的场景深度获取方法 | |
CN111985551A (zh) | 一种基于多重注意力网络的立体匹配算法 | |
CN110246111A (zh) | 基于融合图像和强化图像的无参考立体图像质量评价方法 | |
CN110675436A (zh) | 基于3d特征点的激光雷达与立体视觉配准方法 | |
CN108010075A (zh) | 一种基于多特征联合的局部立体匹配方法 | |
CN104301706B (zh) | 一种增强裸眼立体显示效果的合成方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |