CN108269273A - 一种全景纵向漫游中极线匹配的置信传播方法 - Google Patents

一种全景纵向漫游中极线匹配的置信传播方法 Download PDF

Info

Publication number
CN108269273A
CN108269273A CN201810146263.1A CN201810146263A CN108269273A CN 108269273 A CN108269273 A CN 108269273A CN 201810146263 A CN201810146263 A CN 201810146263A CN 108269273 A CN108269273 A CN 108269273A
Authority
CN
China
Prior art keywords
image
parallax
matched
point
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810146263.1A
Other languages
English (en)
Other versions
CN108269273B (zh
Inventor
兰诚栋
张方柏
孙强强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fuzhou University
Original Assignee
Fuzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuzhou University filed Critical Fuzhou University
Priority to CN201810146263.1A priority Critical patent/CN108269273B/zh
Publication of CN108269273A publication Critical patent/CN108269273A/zh
Application granted granted Critical
Publication of CN108269273B publication Critical patent/CN108269273B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

本发明提供一种全景纵向漫游中极线匹配的置信传播方法,将图像假设为马尔代夫随机场,通过对所有相邻节点的不同视差来标记置信度并做同时传播与多次迭代,来使得场景中每个节点在不同视差标记下的概率收敛,从而求出被标记的一对相关图像,通过前后摄像机拍摄得到每个节点置信度最大的视差标记作为该像素视差。本发明引入了纵向漫游中前后图像匹配,优化了匹配代价函数,并构建全景纵向漫游中视差与深度计算模型。由此构建的算法匹配精度更高。

Description

一种全景纵向漫游中极线匹配的置信传播方法
技术领域
本发明属于图像处理领域,具体涉及极线匹配的置信传播算法,着重提高全景纵向漫游中场景图像深度图的精确性。
背景技术
置信传播算法是通过相邻节点之间的标记的置信度的相互影响来得到全局的最优解。传统的立体匹配算法多是基于特征特性的稀疏匹配,考虑到图像的纹理不连续和前景遮挡后景等问题,无法生成稠密视差图。局部方法虽然复杂度较低,但相比较而言全局匹配法的准确度更高,能更好的生成稠密视差图。目前为止具有代表性的全局匹配算法有图割算法[1-3]和置信传播[4-5]算法。全景多视点能够产生空间自由视点,增强用户的沉浸感和临场感。本技术可以更好地解决视点间图像匹配,并有助于全景多视点的漫游观光,虚拟游戏,以及教育教学的更深层次的视觉享受。
在目前已有的方法中,Sun等[4]把立体匹配问题看作马尔科夫网络,并创新性的引入了基于贝叶斯后验概率的置信传播的方法求取马尔科夫网络中的最大后验估计值。首次将置信传播算法应用在全局立体匹配中,用来解决能量函数最小化问题,并获得了精度极高的视差图,但实时性较差。Felzenszwalb等[5]关于实时性较差问题对标准置信传播算法做了三项重要改进:通过最小化卷积的距离变换和对四邻域的二维图像做奇偶场优化来降低时间复杂度,通过运用类似于金字塔的由粗到细的消息迭代算法来降低迭代次数。此方法有益于图像和视频更好的恢复和重建,但对能量函数的数据项和平滑项之间缺乏统筹考虑。
文献[6]提出先由分割得到粗略的深度图,并用置信传播算法不断进行迭代细化。文献[7]提出分层置信传播算法来不断减少视差搜索区域,对视差图不断进行优化。提升了匹配的精确度,但数据量较大运算较为复杂。文献[8]依据立体图像对相似的纹理区域差异先进行图像分割,然后将分割的区域作为匹配基元进行置信传播立体匹配。这样能量函数的数据项就分配给了像素值为常数的像素点,提高了遮挡区域的匹配精确度,但对图像平滑区域效果不明显。文献[9]提出了一种基于置信度传播和色度分割的全局匹配算法。构建全局优化模型,即采用循环置信度传播和色度分割相结合的全局匹配算法。
参考文献
1.Boykov Y,Veksler O,Zabih R.Fast approximate energy minimization viagraph cuts[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2001,23(11):1222-1239
2.Bleyer M,Gelautz M.Graph-cut-based stereo matching using imagesegmentation with symmetrical treatment of occlusions[J].Signal ProcessingImage Communication,2007,22(2):127-143
3.尹传历,刘冬梅,宋建中.改进的基于图像分割的立体匹配算法[J].计算机辅助设计与图形学学报,2008,20(6):808-812
4.Sun J,Zheng N N,Shum H Y.Stereo matching using belief propagation[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2003,25(7):787-800
5.Felzenszwalb P F,Huttenlocher D P.Efficient belief propagation forearly vision[J].International Journal of Computer Vision,2006,70(1):41-54
6.Lee S B,Oh K J,Ho Y S.Segment-based multi-view depth map estimationusing belief propagation from dense multi-view video[C]//Proceedings of 3DTVConference:the True Vision-Capture,Transmission and Display of 3D Video.LosAlamitos:IEEE Computer Society Press,2008:193-196
7.Yang Q X,Wang L,Ahuja N.A constant-space belief propagationalgorithm for stereo matching[C]//Proceedings of Conference on ComputerVision and Pattern Recognition.Los Alamitos:IEEE Computer Society Press,2010:1458-1465
8.Luo C Z,Lei J J,Hu G L,et al.Stereo matching with semi-limitedbelief propagation[C]//Proceedings of International Conference on Genetic andEvolutionary Computing.Los Alamitos:IEEE Computer Society Press,2013:1-4
9.汪永宝,杨红雨,兰时勇.基于置信度传播和色度分割算法的深度估计[J].计算机技术与发展,2015,25(9):6-11。
发明内容
本发明的目的是提供一种全景纵向漫游中极线匹配的置信传播算法。
本发明采用以下技术方案:一种全景纵向漫游中极线匹配的置信传播方法,其将图像假设为马尔代夫随机场,通过对所有相邻节点的不同视差来标记置信度并做同时传播与多次迭代,来使得场景中每个节点在不同视差标记下的概率收敛,从而求出被标记的一对相关图像,通过前后摄像机拍摄得到每个节点置信度最大的视差标记作为该像素视差。
在本发明一实施例中,具体包括以下步骤:步骤S01:通过前后两个摄像头采集图像,获得前后立体图像对;步骤S02:对前后图像匹配:以各像素点与图像中心点的连线为基准,对每条对应外极线上的像素点进行匹配;步骤S03:优化匹配代价函数:在传统双目匹配只在水平方向有位置偏移的基础上,增加垂直方向位置偏移;步骤S04:通过将能量函数最小化问题转化成最优置信度问题,然后用置信传播算法求解全局能量函数的最小值,从而获得最优的视差分配;步骤S05:根据几何关系,构建视差与深度计算模型;步骤S06:用前置摄像头图像的所有像素点匹配后置摄像头的对应像素点,从而获取最优深度图。
进一步的,步骤S02包括以下具体步骤:OF和OB分别表示前后摄像机的光心,CF和CB分别表示前后图像的中心点,世界坐标系上任意一点P在前向图像的成像点为PF,在后向图像的成像点为PB,PFCF和PBCB为对极线;在进行前后图像匹配时,需要以各像素点与图像中心点的连线为基准,对每条对应外极线上的像素点进行匹配。
进一步的,步骤S03中根据下式优化匹配代价函数:步骤S031:Xj,Xk,Xm,Xn为Xi邻域节点,消息在节点的每个可能视差d处进行传递;Vd(Xi,Xj)是平滑项,表示相邻像素不连续性;
步骤S032:在第t次迭代过程中,节点Xi在可能视差值d处,向其邻域节点Xj传递的消息:
其中是通过改进后的代价函数中绝对差值求得的数据项:
IF和IB分别为前向视图和后向视图;前向视图即目标视图,后向视图即参考视图;Td为匹配代价的截断阈值。
进一步的,步骤S05中构建纵向漫游中场景图像视差与深度计算模型包括以下具体步骤:
根据视差与深度关系和场景的几何模型,得到:因此深度的计算公式如下:其中ZF为前摄像机图像像素的深度,lF为P1点投影到前摄像机成像平面上的点与成像平面中心点的偏移;lB为P1点投影到后摄像机成像平面上的点与成像平面中心点的偏移;B为前后摄像机间的距离。
本发明与已有技术相对照,效果是积极且明显的:本发明引入了纵向漫游中前后图像匹配,优化了匹配代价函数,并构建全景纵向漫游中视差与深度计算模型。由此构建的算法匹配精度更高。
附图说明
图1是纵向漫游***成像示意图。
图2是纵向漫游***摄像机的几何***。
图3是左右图像和前后图像示意图。
图4是纵向漫游中极线匹配的置信传播算法及局部优化方法生成的视差图;其中图4a和4e为本文算法生成的深度图;图4b和4f为像素灰度绝对误差和局部优化方法生成的深度图;图4c和4g为像素灰度差值的平方和局部优化方法生成的深度图;图4d和4h为归一化互相关局部优化方法生成的深度图。
图5是漫游路径示意图。
具体实施方式
下面结合附图和具体实施例对本发明做进一步解释说明。
一种全景纵向漫游中极线匹配的置信传播方法,其将图像假设为马尔代夫随机场,通过对所有相邻节点的不同视差来标记置信度并做同时传播与多次迭代,来使得场景中每个节点在不同视差标记下的概率收敛,从而求出被标记的一对相关图像,通过前后摄像机拍摄得到每个节点置信度最大的视差标记作为该像素视差。
在本发明一实施例中,具体包括以下步骤:步骤S01:通过前后两个摄像头采集图像,获得前后立体图像对;步骤S02:对前后图像匹配:以各像素点与图像中心点的连线为基准,对每条对应外极线上的像素点进行匹配;步骤S03:优化匹配代价函数:在传统双目匹配只在水平方向有位置偏移的基础上,增加垂直方向位置偏移;步骤S04:通过将能量函数最小化问题转化成最优置信度问题,然后用置信传播算法求解全局能量函数的最小值,从而获得最优的视差分配;步骤S05:根据几何关系,构建视差与深度计算模型;步骤S06:用前置摄像头图像的所有像素点匹配后置摄像头的对应像素点,从而获取最优深度图。
进一步的,步骤S02包括以下具体步骤:OF和OB分别表示前后摄像机的光心,CF和CB分别表示前后图像的中心点,世界坐标系上任意一点P在前向图像的成像点为PF,在后向图像的成像点为PB,PFCF和PBCB为对极线;在进行前后图像匹配时,需要以各像素点与图像中心点的连线为基准,对每条对应外极线上的像素点进行匹配。
进一步的,步骤S03中根据下式优化匹配代价函数:步骤S031:Xj,Xk,Xm,Xn为Xi邻域节点,消息在节点的每个可能视差d处进行传递;Vd(Xi,Xj)是平滑项,表示相邻像素不连续性;
步骤S032:在第t次迭代过程中,节点Xi在可能视差值d处,向其邻域节点Xj传递的消息:
其中是通过改进后的代价函数中绝对差值求得的数据项:
IF和IB分别为前向视图和后向视图;前向视图即目标视图,后向视图即参考视图;Td为匹配代价的截断阈值。
进一步的,步骤S05中构建纵向漫游中场景图像视差与深度计算模型包括以下具体步骤:
根据视差与深度关系和场景的几何模型,得到:因此深度的计算公式如下:其中ZF为前摄像机图像像素的深度,lF为P1点投影到前摄像机成像平面上的点与成像平面中心点的偏移;lB为P1点投影到后摄像机成像平面上的点与成像平面中心点的偏移;B为前后摄像机间的距离。
在本发明一具体实施例中,具体包括以下步骤:
(1)通过前后两个摄像头采集图像,获得前后立体图像对。
(2)对前后图像匹配。以各像素点与图像中心点的连线为基准,对每条对应外极线上的像素点进行匹配。
如图1所示,其中OF和OB分别表示前后摄像机的光心,CF和CB分别表示前后图像的中心点(也为极点),世界坐标系上任意一点P在前向图像的成像点为PF,在后向图像的成像点为PB,由对极原理可知PFCF和PBCB即为对极线。因此在进行前后图像匹配时,需要以各像素点与图像中心点的连线为基准,对每条对应外极线上的像素点进行匹配.相当于一条线以图像中心为原点旋转180°(或360°),在形成的每条连线上进行相应的像素点的匹配。
(3)优化匹配代价函数。在传统双目匹配只在水平方向有位置偏移的基础上,增加垂直方向位置偏移。
Xj,Xk,Xm,Xn为Xi邻域节点,消息在节点的每个可能视差d处进行传递。Vd(Xi,Xj)是平滑项,表示相邻像素不连续性。在第t次迭代过程中,节点Xi在可能视差值d处,向其邻域节点Xj传递的消息:
其中是通过改进后的代价函数中绝对差值求得的数据项::
IF和IB分别为前向视图(目标视图)和后向视图(参考视图),Td为匹配代价的截断阈值。
(4)通过将能量函数最小化问题转化成最优置信度问题,然后用置信传播算法求解全局能量函数的最小值,从而获得最优的视差分配。
(5)根据几何关系,构建视差与深度计算模型。
如图2所示。根据整理,我们可以得到:
因此深度的计算公式如下:
ZF为前摄像机图像像素的深度。lF为P1点投影到前摄像机成像平面上的点与成像平面中心点的偏移;lB为P1点投影到后摄像机成像平面上的点与成像平面中心点的偏移。B为前后摄像机间的距离。
(6)用前置摄像头图像的所有像素点匹配后置摄像头的对应像素点,从而获取最优深度图。
左右图像和前后图像示意图参见图3。
实验和结果
使用本发明提出的算法和三种局部优化方法,通过深度计算模型得到的深度图如图4所示。其中图4a和4e为本文算法生成的深度图;图4b和4f为像素灰度绝对误差和局部优化方法生成的深度图;图4c和4g为像素灰度差值的平方和局部优化方法生成的深度图;图4d和4h为归一化互相关局部优化方法生成的深度图。对于图像Sofa5和图像Sofa7,将不同算法生成的深度图与标准深度图对比的峰值信噪比和结构相似性结果分别如表1和表2所示.从实验结果可知,本文算法生成的深度图在简单纹理或弱纹理区域效果会更好,峰值信噪比提高了近50%.对于复杂纹理或遮挡区域,本文算法生成的深度图会出现部分空洞,但周边区域的效果相比局部优化方法还是更好一些,总体而言结构相似性提高了0.19~0.25.对比生成的深度图像和实验数据,本文算法生成的深度图轮廓清晰,保持了较高精度的匹配效果,相比局部优化算法精确度高,误匹配率低.
将不同算法生成的深度图与标准深度图对比的峰值信噪比和结构相似性结果分别如表1和表2所示.从实验结果可知,本文算法生成的深度图在简单纹理或弱纹理区域效果会更好,峰值信噪比提高了近50%.对于复杂纹理或遮挡区域,本文算法生成的深度图会出现部分空洞,但周边区域的效果相比局部优化方法还是更好一些,总体而言结构相似性提高了0.19~0.25.对比生成的深度图像和实验数据,本发明算法生成的深度图轮廓清晰,保持了较高精度的匹配效果,相比局部优化算法精确度高,误匹配率低。图5是漫游路径示意图。
表1图像Sofa5深度图的PSNR和SSIM
表2图像Sofa7深度图的PSNR和SSIM
以上是本发明的较佳实施例,凡依本发明技术方案所作的改变,所产生的功能作用未超出本发明技术方案的范围时,均属于本发明的保护范围。

Claims (5)

1.一种全景纵向漫游中极线匹配的置信传播方法,其特征在于:将图像假设为马尔代夫随机场,通过对所有相邻节点的不同视差来标记置信度并做同时传播与多次迭代,来使得场景中每个节点在不同视差标记下的概率收敛,从而求出被标记的一对相关图像,通过前后摄像机拍摄得到每个节点置信度最大的视差标记作为该像素视差。
2.根据权利要求1所述的全景纵向漫游中极线匹配的置信传播方法,其特征在于:具体包括以下步骤:
步骤S01:通过前后两个摄像头采集图像,获得前后立体图像对;
步骤S02:对前后图像匹配:以各像素点与图像中心点的连线为基准,对每条对应外极线上的像素点进行匹配;
步骤S03:优化匹配代价函数:在传统双目匹配只在水平方向有位置偏移的基础上,增加垂直方向位置偏移;
步骤S04:通过将能量函数最小化问题转化成最优置信度问题,然后用置信传播算法求解全局能量函数的最小值,从而获得最优的视差分配;
步骤S05:根据几何关系,构建视差与深度计算模型;
步骤S06:用前置摄像头图像的所有像素点匹配后置摄像头的对应像素点,从而获取最优深度图。
3.根据权利要求2所述的全景纵向漫游中极线匹配的置信传播方法,其特征在于:步骤S02包括以下具体步骤:OF和OB分别表示前后摄像机的光心,CF和CB分别表示前后图像的中心点,世界坐标系上任意一点P在前向图像的成像点为PF,在后向图像的成像点为PB,PFCF和PBCB为对极线;在进行前后图像匹配时,需要以各像素点与图像中心点的连线为基准,对每条对应外极线上的像素点进行匹配。
4.根据权利要求2所述的全景纵向漫游中极线匹配的置信传播方法,其特征在于:步骤S03中根据下式优化匹配代价函数:
步骤S031:Xj,Xk,Xm,Xn为Xi邻域节点,消息在节点的每个可能视差d处进行传递;Vd(Xi,Xj)是平滑项,表示相邻像素不连续性;
步骤S032:在第t次迭代过程中,节点Xi在可能视差值d处,向其邻域节点Xj传递的消息:
其中是通过改进后的代价函数中绝对差值求得的数据项:
IF和IB分别为前向视图和后向视图;前向视图即目标视图,后向视图即参考视图;Td为匹配代价的截断阈值。
5.根据权利要求2所述的全景纵向漫游中极线匹配的置信传播方法,其特征在于:步骤S05中构建纵向漫游中场景图像视差与深度计算模型包括以下具体步骤:
根据视差与深度关系和场景的几何模型,得到:
因此深度的计算公式如下:
其中ZF为前摄像机图像像素的深度,lF为P1点投影到前摄像机成像平面上的点与成像平面中心点的偏移;lB为P1点投影到后摄像机成像平面上的点与成像平面中心点的偏移;B为前后摄像机间的距离。
CN201810146263.1A 2018-02-12 2018-02-12 一种全景纵向漫游中极线匹配的置信传播方法 Active CN108269273B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810146263.1A CN108269273B (zh) 2018-02-12 2018-02-12 一种全景纵向漫游中极线匹配的置信传播方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810146263.1A CN108269273B (zh) 2018-02-12 2018-02-12 一种全景纵向漫游中极线匹配的置信传播方法

Publications (2)

Publication Number Publication Date
CN108269273A true CN108269273A (zh) 2018-07-10
CN108269273B CN108269273B (zh) 2021-07-27

Family

ID=62774143

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810146263.1A Active CN108269273B (zh) 2018-02-12 2018-02-12 一种全景纵向漫游中极线匹配的置信传播方法

Country Status (1)

Country Link
CN (1) CN108269273B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109191512A (zh) * 2018-07-27 2019-01-11 深圳市商汤科技有限公司 双目图像的深度估计方法及装置、设备、程序及介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009002031A2 (en) * 2007-06-28 2008-12-31 Postech Academy-Industry Foundation Belief propagation based fast systolic array system and message processing method using the same
CN105957004A (zh) * 2016-04-27 2016-09-21 武汉大学 一种基于图割优化的全景影像修补方法及***
WO2016165064A1 (zh) * 2015-04-14 2016-10-20 中国科学院自动化研究所 基于多视角学习的鲁棒性前景检测方法
CN106097336A (zh) * 2016-06-07 2016-11-09 重庆科技学院 基于置信传播和自相似差异测度的前后景立体匹配方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009002031A2 (en) * 2007-06-28 2008-12-31 Postech Academy-Industry Foundation Belief propagation based fast systolic array system and message processing method using the same
WO2016165064A1 (zh) * 2015-04-14 2016-10-20 中国科学院自动化研究所 基于多视角学习的鲁棒性前景检测方法
CN105957004A (zh) * 2016-04-27 2016-09-21 武汉大学 一种基于图割优化的全景影像修补方法及***
CN106097336A (zh) * 2016-06-07 2016-11-09 重庆科技学院 基于置信传播和自相似差异测度的前后景立体匹配方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
YINGNAN GENG等: "IMPROVED BELIEF PROPAGATION WITH ISTINCTIVENESS MEASURE FOR STEREO MATCHING", 《PROCEEDINGS OF NIDC2016》 *
兰诚栋等: "基于立体全景漫游中深度图获取技术的研究", 《微型机与应用》 *
张超平: "基于消息传递约束的置信传播立体匹配算法", 《中国优秀硕士学位论文全文数据库(电子期刊)信息科技辑》 *

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109191512A (zh) * 2018-07-27 2019-01-11 深圳市商汤科技有限公司 双目图像的深度估计方法及装置、设备、程序及介质
WO2020019765A1 (zh) * 2018-07-27 2020-01-30 深圳市商汤科技有限公司 双目图像的深度估计方法及装置、设备、程序及介质
CN109191512B (zh) * 2018-07-27 2020-10-30 深圳市商汤科技有限公司 双目图像的深度估计方法及装置、设备、程序及介质
TWI721510B (zh) * 2018-07-27 2021-03-11 大陸商深圳市商湯科技有限公司 雙目圖像的深度估計方法、設備及儲存介質
US11295466B2 (en) 2018-07-27 2022-04-05 Shenzhen Sensetime Technology Co., Ltd. Method and apparatus for estimating depth of binocular image, device, program, and medium

Also Published As

Publication number Publication date
CN108269273B (zh) 2021-07-27

Similar Documents

Publication Publication Date Title
CN103236082B (zh) 面向捕获静止场景的二维视频的准三维重建方法
CN110853151B (zh) 一种基于视频的三维立体点集恢复方法
Cheng et al. Spatio-temporally consistent novel view synthesis algorithm from video-plus-depth sequences for autostereoscopic displays
CN113392879B (zh) 一种航空影像多视图匹配方法
Berent et al. Segmentation of epipolar-plane image volumes with occlusion and disocclusion competition
CN108269273A (zh) 一种全景纵向漫游中极线匹配的置信传播方法
Rahaman et al. Free view-point video synthesis using Gaussian mixture modelling
CN115359193B (zh) 一种基于双目鱼眼相机的快速半稠密三维重建方法
CN114935316B (zh) 基于光学跟踪与单目视觉的标准深度图像生成方法
CN102567992B (zh) 遮挡区域的图像匹配方法
CN111652922A (zh) 一种基于双目视觉的单目视频深度估计方法及***
Zenati et al. Dense stereo matching with application to augmented reality
Wu et al. Joint view synthesis and disparity refinement for stereo matching
Xiu et al. An improved depth map estimation algorithm for view synthesis and multiview video coding
Wu et al. Stereoscopic video conversion based on depth tracking
Ikeya et al. Depth estimation from three cameras using belief propagation: 3D modelling of sumo wrestling
Liu et al. Virtual view reconstruction using temporal information
Li et al. A hybrid pixel-block based view synthesis for multiviewpoint 3D video
Tsekourakis et al. Measuring the effects of temporal coherence in depth estimation for dynamic scenes
CN117911465B (zh) 一种基于双目立体匹配的自然保护区稠密点云生成方法
Yang et al. Naked-eye 3D multi-viewpoint video display
Feldmann et al. Multi-view depth estimation based on visual-hull enhanced Hybrid Recursive Matching for 3D video conference systems
Liang et al. Dense depth recovery based on adaptive image segmentation
Gao et al. Motion Assisted Video-based Stereo Matching
Li et al. Depth-texture cooperative clustering and alignment for high efficiency depth intra-coding

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant